lunes, 8 de octubre de 2012

Hierarchy and general systems

Hierarchy and History in Simon's "Architecture of Complexity" 

Philip E. Agre 

Department of Information Studies 
University of California, Los Angeles 
Los Angeles, California 90095-1520 

Journal of the Learning Sciences 12(3), 2003. 

1 Hierarchy and general systems 

Herb Simon came to artificial intelligence from organizational studies in New Deal-era public administration, and only now, it seems, after Simon's sad passing in early 2001, are we in position to place this development in historical context. His dissertation, published in 1947 after wartime delays as Administrative Behavior, remains a landmark in the empirical study of organizations. Departing from the prescriptive tradition that preceded it, Administrative Behavior looked beneath the official representations to discover the complementarity between human cognition and institutional context. Although he was a liberal Democrat and active in political causes, Simon did not frame his research on public organizations as a political project [1]. Yet in bringing empirical evidence to the study of organizational rationality, he was contending with the central political questions of his time. 

It was his successive attempts to formalize the limitedly rational processes of organizational decision-making that led Simon, together with Allen Newell and other colleagues, to found the field of artificial intelligence in the 1960's [2]. The interaction between individual cognition and organizational structure that had been central to the argument of Administrative Behavior fell away in Newell and Simon's attempts to build computational models of individual problem-solving. But themes of structure remained central to the project in another way, in the day-to-day technical work of model-building [3]. The early problem-solving models were extraordinary innovations in the context of their times, since they required the modelers to invent much of what we now take for granted as computer science. 

In an epochal 1962 paper entitled "The Architecture of Complexity", Simon attempted to draw together what he had learned about the structure of complex systems [4]. ("The Architecture of Complexity" became widely influential when it was published with three 1968 lectures under the title of "The Sciences of the Artificial" (Simon 1969). I will cite that version. I will not discuss the expanded second edition of "The Sciences of the Artificial" published in 1981, or the third edition published in 1996.) I will argue that we can look at "The Architecture of Complexity" now with forty years of hindsight as a study in the historical conditions under which intellectual problems become visible. Much as the early work of the cognitivist movement had been framed as a response to the hegemony of behaviorism, "The Architecture of Complexity" is framed as a response to general systems theory. It was a complex response that operated on two levels. 

On a substantive level, general systems theory promised to explain the vast and rather nebulous phenomenon of "complexity" in terms of the order that "emerges" from a dynamical system of interacting elements. Simon likewise proposed to explain the phenomena of emergent complexity, but despite his friendly tone the unifying theme of his explanation -- hierarchical structure -- conflicted with the spirit of general systems theory. The theme of hierarchy is capable of being compatible with general systems theory, for example in theories that describe hierarchies of dynamic systems, each interacting with those above and below it in the hierarchy. Indeed, Simon had been influenced by such models; he gave particular credit to the work of Richard Goodwin (1947; see Simon 1991: 376-378). But for the Simon of "The Architecture of Complexity", hierarchy meant a static hierarchical structure. He was most interested in this structure's genesis (as we will see), but not in the structure's moment-to-moment reproduction [5]. This conception of hierarchical structure was obviously already a familiar theme in the study of organizations, but even more important for the emergence of artificial intelligence was the influence of Chomsky's (1957) theory of the hierarchical structures of natural language syntax. What is more, themes of hierarchy arose naturally from Newell and Simon's practical experience with computational system-building. Simon had every reason to regard hierarchy as an organizing theme for a science of complexity. 

This, perhaps, is why Simon found general systems theory so congenial on the level of methodology. General systems theory was "general" in the sense that it promised to explain phenomena in an extremely wide range of fields. To this end, it developed a vocabulary that can fairly be called "vague". What, after all, is a "system"? The term can be given any number of mathematical definitions, but in its reference to the world of empirical phenomena its great value was precisely its ability to direct attention in an organized way to the phenomena in any field. Once a "system" has been discerned within the materials of a particular discipline, one can set about paraphrasing them in terms of an idealized mathematical theory, most especially that of cybernetics (see Bowker 1993). This kind of generality need not be a bad thing; many heuristic devices are valuable despite their lack of analytical precision. Nonetheless, the great danger of this procedure is that, having discovered "systems" everywhere, vagueness can be mistaken for universality. The illusion of universality can then lead researchers to overgeneralize, and to foreclose intellectual alternatives. 

Just as the general systems theorists were impressed by their ability to discern "systems" wherever they looked, Simon had been struck by the recurrence within his own work of themes of hierarchy. Having then set about looking for hierarchy in the world, he found it everywhere. And so, in "The Architecture of Complexity", he proposed it as a universal principle of the structure of complex things. The conflict between general systems theory and "The Architecture of Complexity" is a conflict between explanatory schemas -- self-organization and hierarchy -- that are intrinsically vague, but precisely for that reason can seem universal. Now, it is entirely possible that one of these competing schemata really is the more powerful, the more heuristically valuable, the more widespread in the real empirical world. But because Simon's text deemphasizes the conflict between his own theory and the general systems theorists', the issue is not fully joined. By juxtaposing the two schemata here, I want to forestall judgements of universality and ask what is really at stake in choosing one rather than the other. 

Simon provides many examples of hierarchy [6]. He mentions organizations (1969: 87), of course, while emphasizing that hierarchy need not imply top-down relations of authority (8Cool. The basic structure of matter is hierarchical, in that molecules are made of atoms, which are themselves made of putatively elementary particles (87). Astronomers can treat stars or galaxies as elementary units (87). Books are divided into chapters, and then into sections, paragraphs, clauses, phrases, and words (90). The case of music is similar (90). The segmentary structures of societies -- individuals within families within tribes within nations -- are likewise hierarchical (8Cool. And problems can be solved more easily when they can be decomposed into subproblems whose solutions can be combined into a solution to the problem as a whole (95-96). 

Even though his overall topic was the "sciences of the artificial", Simon emphasized above all that hierarchy was something profoundly natural. He viewed hierarchy as a general principle of complex structures -- and not just of particular complex structures but of complexity in general. Hierarchy, he argued, emerges almost inevitably through a wide variety of evolutionary processes, for the simple reason that hierarchical structures are stable. To motivate this deep idea, he offered (1969: 90-92) his most important example of hierarchy, a "parable" about imaginary watchmakers named Hora and Tempus. According to this story, both watchmakers were equally skilled, but only one of them, Hora, prospered. The difference between them lay in the design of their watches. Each design involved 1000 elementary components, but the similarity ended there. Tempus' watches were not hierarchical; they were assembled one component at a time. Hora's watches, by contrast, were organized into hierarchical subassemblies whose "span" was ten [7]: he would combine ten elementary components into small subassemblies, and then he would combine ten subassemblies into larger subassemblies, and these in turn could be combined to make a complete watch. 

The difference between the two watchmakers' designs became crucial in the larger context of their lives as artisans. Customers would call them on the phone, and when the phone rang they would be compelled to abandon their current assembly, which would fall apart. These interruptions did not bother Hora, who lost at most ten units of work: whatever subassembly he happened to be working on. Tempus, however, would lose (on average) much more: an entire partly-assembled watch would fall apart, and not into modular subassemblies but back into its elementary components. If interruptions are at all common, it can easily be shown that Hora will complete many more watches than Tempus, whose business will surely fail to prosper. 

The watchmakers' story deserves close attention. It is striking, first of all, that Simon chooses to illustrate a story about evolution using an example that involves designers -- and watchmakers, no less [8]. The whole point of biological evolution is that it does not require a designer, and the watchmaker was a common post-Newtonian metaphor for God in a mechanistic universe [9]. Of course, Simon means to use the word "evolution" in a generalized way; he is not referring solely to Darwin's theory. Nonetheless, it is worth asking how far the story does generalize. His point, first of all, cannot be that naturally occurring complexity comes about entirely by assembling previously existing modular components. Some modularity is certainly found in complex organisms, for example in the cell as a modular component of plants and animals (Simon 1969: 8Cool, but very little biological structure above the cellular level is assembled from previously independent modular components [10]. The hierarchical structure of a book consists of preexisting components on some levels (letters, words, some of the phrases), but not on others (the great majority of sentences and paragraphs, and except for anthologies all of the sections and chapters) [11]. Nor did the modern corporation acquire most of its hierarchical structure by assembling existing components; rather, its leaders discovered through trial and error the need to impose such structures upon it (Chandler 1962). Modular industrial products are sometimes designed as complete architectures, and sometimes designed with standardized interfaces that invite others to introduce complementary products, but rarely are free-standing, independently designed products assembled post hoc into modular systems [12]. Simon (1969: 93) does make clear that "in spite of the overtones of the watchmaker parable, the theory assumes no teleological mechanism". "Direction", he asserts, is provided by "nothing more than survival of the fittest -- that is, of the stable" (ibid). But the equation between fitness and stability is forced: fitness in real ecosystems is more than a matter of not falling to pieces. The figure of the watchmaker functions (no doubt unintentionally) to make the equation between fitness and stability more plausible than it really is. 

The role of the designer in the watchmakers' story is peculiar for another reason. In introducing his engagement with general systems theory, Simon remarks that: 

In [complex] systems, the whole is more than the sum of its parts, not in an ultimate, metaphysical sense, but in the important pragmatic sense that, given the properties of the parts and the laws of their interaction, it is not a trivial matter to infer the properties of the whole. In the face of complexity, an in-principle reductionist may be at the same time a pragmatic holist (1969: 6Cool
He is saying two things here. Less problematically (though controversially at the time), he is affirming that hierarchy allows a theorist to choose a level of explanation, for example treating atoms as if they really were atomic. But beyond that, he also embraces the systems theorists' assertion that the properties of wholes cannot easily be predicted from the properties of their parts. Yet this is nearly the opposite of the way that engineers such as Hora -- or Simon himself -- use hierarchy in practice. For working engineers, hierarchy is not mainly a guarantee that subassemblies will remain intact when the phone rings. Rather, hierarchy simplifies the process of design cognitively by allowing the functional role of subassemblies to be articulated in a meaningful way in terms of their contribution to the function of the whole. Hierarchy allows subassemblies to be modified somewhat independently of one another, and it enables them to be assembled into new and potentially unexpected configurations when the need arises. A system whose overall functioning cannot be predicted from the functionality of its components is not generally considered to be well-engineered. 
Other anomalies arise when the watchmakers' example is compared to the example of organizations. Both are hierarchical. But a watch, like a molecule, is hierarchical in a particular way: assemblies physically contain subassemblies, and in this way the hierarchy is arranged in space. Elementary components that are far apart in terms of the graph structure of parts and subparts are typically far apart in spatial terms as well; in any event they are likely to be far apart in causal terms [13]. Simon captures this intuition with his concept of "nearly-decomposable systems" (1969: 99-103). Yet his argument is unstable here. He is not simply choosing to study certain complex structures that happen to be nearly decomposable; rather, he is arguing that the structures that arise in the world tend to be hierarchical (and thus nearly decomposable). This is precisely what makes the argument profound: it is not simply a prescription for engineers but a sweeping empirical claim that the universe in general is organized as if it had been engineered. But in order for the story about hierarchy-through-evolution to apply to human organizations, hierarchy must be highly adaptive for those organizations, and not just a transient accommodation to technological limits. Chandler's (1962) history makes clear that functionally differentiated organizational hierarchy in the corporation arose in large part from the need for clear lines of authority. But little follows from this: clear lines of authority might be necessary precisely because of the limitations of organizational technologies. Organizational hierarchy is not well-reputed nowadays; in any event, the case for hierarchy is not closed [14]. 

What can be learned from these puzzles? The lesson is surely not that hierarchy is a useless idea, or that hierarchies are not prevalent in many parts of the natural and social worlds. The point, rather, is that hierarchy is a somewhat more diverse phenomenon than the universal ambitions of Simon's theory require. It is understandable that Simon should want to idealize away some of this diversity; after all, he had genuinely made important discoveries about the role of hierarchy in the operation of complex organizations and the design of complex artefacts. Nonetheless, to place Simon's discoveries in context, it is important that we back away from some of his idealizations. 

2 Hierarchy in history 

How, then, can Simon's arguments be understood in their historical context? I believe that Simon's theory was very much a product of its time. The year that he wrote "The Architecture of Complexity" (1962) might be seen in retrospect as the high-water mark of the classical hierarchical organization. The late 19th century had established the transportation and communication infrastructures that made possible the economies of scale that paid for engineers and other professional information workers (Chandler 1977). Engineers had then invented the techniques of managerial rationalization, whereupon the "human" side of management had been discovered as an object of empirical study by Simon himself and codified prescriptively by Barnard (1962 [1938]) and Drucker (1945). The Cold War, finally, had given the hierarchical organization a new cultural role, as well as providing the research funds to develop scientific and computational theories of it. 

At the same time, many developments that we now take for granted were largely unimagined when Simon wrote. Computer networking hardly existed. The collapse of communism was literally unimaginable, and so was the collapse in cultural respect for hierarchy that accompanied it. In 1962, organizations could still be conceptualized as stably self-contained organisms whose components did diverse things. Managers still served largely as conduits for information, managerial accounting was poorly developed, outsourcing was not practical in most areas, business cycles were severe, and large inventories compensated for poor communications along supply chains. 

Simon identified some of the problems and articulated the themes that could become visible in this historical context. In terms of the conflict of explanatory schemas that I identified earlier -- self-organization versus hierarchy -- Simon caught sight of the schema that was ascendant in the time and place where he worked. Research on emergent complexity in dynamic systems was certainly current in the 1960's, but it did not have the mathematical or computational resources to generate a research program of the same breadth. Just as Minsky and Papert's Perceptrons (1969) had the effect (intentionally or not) of aborting the research program of emergent complexity in neural networks, "The Architecture of Complexity" effectively captured the theme of complexity and bound it to a research program centered on conceptions of hierarchical structure. The 1960s made hierarchy easy to think, and the central role of hierarchy in the era's thinking about computation was part of that larger trend. 

Simon's use of the watchmaker metaphor gives the question a decided political edge. Not only did clockwork metaphors figure in theological disputes, but (according to Mayr (1986)) the contrast between clocks and servomechanisms symbolized for early modern Europe the contrast between Continental themes of authority and English themes of liberty. Technology has long been part and parcel of political culture. The point is not that Simon and his allies were programmatically promoting hierarchical structures of authority in society. Indeed, many of them, especially the anarchist Chomsky, would certainly have rejected the thought. The point, rather, is that the patterns that Simon discerned became visible within the larger context of the times. If we wish to retreat from Simon's commitment to themes of hierarchy, the remedy is not an equally thoroughgoing commitment to the theme of self-organizing dynamic systems, much less the idealized market model with which dynamic systems are now culturally associated. And even though Simon opposed neoclassical economics with its imputations of unbounded rationality to "economic man", going so far late in life as to endorse organizations over markets as explanatory units for economics (Simon 1997), it would be anachronistic to ascribe to him an ideological project of making state control of the economy into an ontological principle of the universe. The ideological equation between hierarchy and government, and between dynamic systems and markets, was not well-developed in the era of "The Architecture of Complexity", and the idea of a world-historical conflict between hierarchies and markets (as, for example, in Fukuyama (1999)) would have made little sense in the context of the large corporation and the Cold War. Hierarchy in those days meant not only the regulatory and welfare state but the church and the military, as well as the corporate firm. Nor is the opposite extreme of emergent self-organization ex nihilo any more viable intellectually; indeed, the whole point of the most intellectually serious proponents of self-organization, such as Hayek (1948), is that the libertarian economy requires a robust institutional framework before the miracles of self-organized complexity can reliably occur [15]. 

To understand the place of the hierarchy and self-organization schemata in historical context, then, it helps to see them not only as warring enemies but as loosely articulated constituents of a single formation -- as two sides of a very old coin. Cultural fashion swings back and forth between the two sides of the coin historically, both because of changes in reality (such as the development of the hierarchical capitalist firm) and because of changes in ideology (such as with the fall of communism). But if we back away from questions of fashion and focus, we can see in historical context the profound complementarity of the two schemata, as well as the genuine complexity that each schema attempts to paper over. 

Simon was hardly the first scholar to notice hierarchy in all things; as Lovejoy (1936) long ago observed, hierarchy was a pervasive intellectual and cultural theme of medieval Europe. Panofsky (1957) demonstrated the influence of hierarchy in medieval architecture. Studies such as these have described the medieval mind as living in a static universe. Yet, as more recent scholarship has demonstrated, late-medieval experiences of the market led to counterphilosophies of dynamism. Kaye (1998), for example, argues that the philosophers of 14th century Oxford and Paris were immersed in the emerging market societies of that era -- in their roles as university administrators they effectively ran large businesses -- and that this experience was reflected in a new intellectual picture of the universe as a dynamic equilibrium. The connection between economics and cosmology was never made explicit in their writing, but they were certainly familiar with such "modern" ideas as the evils of government intervention in the dynamic equilibration processes of the market. What is more, they applied their incipient mathematical analysis of dynamic equilibrium systematically to every question they could think of, including theological questions that no later scholar would imagine treating in that way. 

For Kaye, this significance of this discovery is that the decline of the static medieval worldview must be dated at least two centuries earlier than earlier scholars had assumed. Yet this picture of decline does not match the historical facts. Writing in the late 18th century, Edmund Burke founded modern conservatism by convening an ideological coalition between the aristocracy and church -- traditional social elites who wished to conserve a static social order of deference and authority -- and the emergent merchant class -- who wished to encourage a dynamic social order of commerce. Burke's project was not universally embraced in its day -- far from it. But it has not disappeared, and it is currently the ascendent political movement in the United States. Like any coalition, the conservative coalition is not entirely stable. The interface between the dynamic and static components of its ideology must be constantly reworked and constantly smoothed over. Some of Burke's followers emphasize his themes of liberty; others his themes of order; and sometimes the themes are combined in ways that downplay their intrinsic tension. In any event, the point is that the explanatory schemata of hierarchy and self-organization are not always at war. Their relationship is complex and variable. Both schemata are woven throughout Western culture, and both are capable of coming to the surface in a wide variety of ways when conditions are right. 

As an example, consider Coase's (1937) influential paper about "the nature of the firm". Coase asks a striking question: if markets are the most efficient way to organize economic life, and if competition selects for efficiency, why do capitalist firms exist at all? Why is the entire economy not organized according to Adam Smith's idealized picture of individual artisans? The answer, Coase argues, is that market mechanisms are not costless, and that organizations arise when productive activities can be organized more cheaply by a hierarchical organization than by market transactions. Coase's argument had little impact at first, but beginning in the 1970s, a movement arose of conservative legal scholars who viewed social progress in almost teleological terms as the progressive reduction of transaction costs, and thus (they argued) the ever more perfect approximation of ideal market conditions (Posner 1972). 

But this conclusion does not follow from Coase's argument. The whole burden of Coase's paper, after all, was not to argue that transaction costs tend to disappear, but that they exist at all, and that they have structural consequences for the economy. Technologies such as the telegraph or the Internet that reduce transaction costs do not, by Coase's argument, necessarily reduce the size of organizations. Although Coase does not use these terms, he argues that the balance between organizations and markets its determined by the relationship between transaction costs (the costs of coordinating activity in the market) and organizing costs (the costs of coordinating activity in the firm). New technologies typically reduce both types of costs, and North and Wallis (1994: 613) observe that "the firm is not concerned with minimizing either transaction or transformation costs in isolation: the firm wants to minimize the total costs of producing and selling a given level of output with a given set of characteristics". 

My suggestion, then, is that phenomena of hierarchy and self-organization are not mutually exclusive, and that neither one is necessarily destined to win a world-historical battle against the other. Although they are analytically distinct and should not be conflated, they nonetheless coexist, in both ideology and in reality, and they are likely to continue coexisting in the future. From this perspective, the models of Simon and the general systems theorists -- all hierarchy or all self-organization -- are models of simplicity, not of complexity. Real complexity begins with the shifting relations between the two sides. 

Take, for example, the impact of computer networking on corporate organization since perhaps 1990. Phenomena such as delayering (the cutting-out of excessive layers of hierarchical organization) and outsourcing (buying from others every product and service that the organization has not specialized in making) have been attributed in part to the greatly enhanced capacities for relationship-at-a-distance that computer networking affords. Precisely because Simon's image of hierarchy is spatial, it does not fit well with the networked world, which collapses many types of distance (e.g., Frissen 1997). Organizations are not in fact nearly-decomposable: there is much to be gained by integrating the activities in the different functional divisions. The loss of clear lines of authority compels the organization's members to negotiate conflicting loyalties (Hirschhorn and Gilmore 1992), but pervasive computer networking greatly strengthens the tools of managerial control and long-distance coordination. These phenomena deconstruct both models -- hierarchy and self-organization alike. Hierarchy and self-organization both have their place in the networked world, but it is a different place, and a complicated one. 

3 Hierarchy and democracy 

What does this have to do with cognitive modeling? Let us recall the great insight of Simon's dissertation: the complex fit between individual cognition and its institutional environment. Simon wrestled with the foremost theme of his century, the place of rationalism in the complex relationship between the organizing principles of hierarchy and self-organization. The self-organization model teaches the value of a groundwork of rules to facilitate self-ordering, and the hierarchy model the value of structures that simplify cognition and life in general. Bringing these insights together, we see the need for a theory of cognition as a phenomenon of social life, embedded in institutions and relationships. Research in the tradition that Simon founded has returned to the computational study of organizations, and thus of individuals in organizational context (e.g., Carley and Prietula 1994). The permanent tensions between hierarchy and self-organization will surely emerge in this work in new and productive forms. 

Yet there is life beyond the collision between hierarchies and markets, and it lies in the values of democracy that Simon believed in. By initiating the empirical study of organizations, Simon discovered the living, breathing human actors who lie at their center. He saw something profound, that human agency and relationship are the ground of all social order, no matter how imputedly rational that order might be, and that human agency and relationship are reciprocally dependent on social order as well. Democracy requires hierarchies and markets, but more fundamentally it requires active citizens who can take up a vantage point outside those institutions, critically evaluating them and cooperatively participating in the processes of social choice that shape them. By retracing Simon's steps, we can learn something more about where this vantage point is located, and how to live in it. I did not always agree with Simon [16], but like all of us I am privileged to have learned about these things from him. 


I appreciate the assistance of Mie Augier and Jean-Louis Le Moigne. 


[1] In this, Simon contrasts with the more recent work on democratic governance of his once-collaborator James March. See March and Olsen (1995). Simon discussed his political activities, and his brush with Cold War blacklisting, in his autobiography (1991: 117-134). 

[2] See Newell, Shaw, and Simon (1960); Newell and Simon (1963); Newell and Simon (1972). 

[3] Edwards (1996: 250) rightly emphasizes this point. 

[4] The argument of "The Architecture of Complexity" also appeared in a more compressed form in Simon (1960: 40-43). Administrative Behavior includes a concept of "hierarchy of authority", but the concept of hierarchical structure is not central to the argument. In a late paper with Mie Augier meant to serve as an introduction to "The Architecture of Complexity", Simon extends his arguments in the light of more recent computational models of evolution (Augier and Simon in press). I am indebted to Mie Augier for sending me a prepublication copy of this paper. 

[5] For example, it is useful to contrast Simon's conception of structure with the autopoietic theory of Maturana and Varela (1980). Elsewhere in his 1968 lectures, Simon (1969: 24-25; cf. Agre 1997: 56) presents his famous parable of the ant whose complex path along a beach is determined jointly by the ant and the beach. Many authors have presented this as evidence of the interactionist nature of Simon's theory. Yet Simon announces a page later that he is only interested in cognition and not in embodied activity. The point of the ant story is that a general problem-solving mechanisms enters into unpredictable interactions with an abstract problem space -- a formal construct with no necessary relationship to the physical or social environment. On the other hand, it should be noted that Simon himself was certainly familiar with servomechanism models and had published a number of papers that employed them; see, for example, Simon (1952). In his autobiography (1991: 108-109) he credits his use of control theory to the influence of his father, an engineer. 

[6] He also acknowledges (1969: 94) that not all structures are hierarchical, giving the example of polymers, which are long chains of identical units. "However", he says, "for present purposes we can simply regard such a structure as a hierarchy with a span of one -- the limiting case". 

[7] The "span" of a hierarchy is the number of subordinates beneath each element. 

[8] Dawkins (1986) later played with this image when he referred to evolution as "the blind watchmaker". For the subsequent history of evolutionary metaphors in economic studies of organization see Nelson and Winter (1982) and Hodgson (1993, 1999). On evolutionary metaphors in the development of technology see Basalla (1988). 

[9] On the long Western tradition of likening the engineer to God, see Noble (1997). On the clockwork metaphor see McReynolds (1980). 

[10] To be sure, Margulis (1998) has subsequently argued that the cell's internal structure arose through the symbiotic combination of formerly independent organisms. In this case Simon's theory does apply. 

[11] Poerksen (1995) argues that bureaucratically rationalized language is increasingly composed of modular elements that lack the embedding in community and history that normally gives language its fullness of meaning. Yet Blair (1988) argues that an affinity for modularity is a central feature of American culture. 

[12] On the role of modularity in industrial design and strategy, see Baldwin and Clark (2000), Economides and Salop (1992), Langlois and Robertson (1992), Meyer and Lehnerd (1997), and Schilling (2000). 

[13] Simon (1969: 89-90) makes clear that hierarchies are defined in terms of interaction patterns, not spatial proximity. The point here is that the metaphor of hierarchy as a physical structure is spatial. 

[14] For numerous additional criticisms of the association between evolution and efficiency, and in particular the inference that hierarchical firms are efficient given their mere existence, see Hodgson (1991). 

[15] On the subsequent history of metaphors of self-organization in the social sciences, see Contractor (1999). 

[16] See Vera and Simon (1993) and Agre (1993; 1995; 1997: 54-57, 142-143). 


Agre, P. E. (1993). The symbolic worldview: Reply to Vera and Simon. Cognitive Science 17, 61-69. 

Agre, P. E. (1995). The soul gained and lost: Artificial intelligence as a philosophical project. Stanford Humanities Review, 4, 1-19. 

Agre, P. E. (1997). Computation and Human Experience. Cambridge: Cambridge University Press. 

Augier, M. & Simon, H. A. (in press). The architecture of complexity and the role of organizations. In R. Garud, A. Kumaraswarmy, & R. Langlois (Eds.), Managing the Modular Age: Architectures, Networks, and Organizations. Oxford: Blackwell. 

Frissen, P. (1997). The virtual state: Postmodernisation, informatisation and public administration. In B. D. Loader (Ed.), The Governance of Cyberspace: Politics, Technology and Global Restructuring (pp. 111-125). London: Routledge. 

Baldwin, C. Y. & Clark, K. B. (2000). Design Rules, Volume 1: The Power of Modularity. Cambridge: MIT Press. 

Barnard, C. I. (1962). The Functions of the Executive. Cambridge, MA: Harvard University Press. Originally published in 1938. 

Basalla, G. (1988). The Evolution of Technology. Cambridge: Cambridge University Press. 

Blair, J. G. (1988) Modular America: Cross-Cultural Perspectives on the Emergence of an American Way. New York: Greenwood Press, 1988. 

Bowker, G. C. (1993). How to be universal: Some cybernetic strategies, 1943-70. Social Studies of Science, 23, 107-127. 

Carley, K. M., & Prietula, M. J. (Eds.) (1994). Computational Organization Theory. Hillsdale, NJ: Erlbaum. 

Chandler, Jr., A. D. (1962). Strategy and Structure: Chapters in the History of the Industrial Enterprise. Cambridge, MA: MIT Press. 

Chandler, Jr. A. D. (1977). The Visible Hand: The Managerial Revolution in American Business. Cambridge, MA: Harvard University Press. 

Chomsky, N. (1957). Syntactic Structures. 's-Gravenhage, The Netherlands: Mouton. 

Coase, R. H. (1937). The nature of the firm. Economica NS, 4, 385-405. 

Contractor, N. S. (1999). Self-organizing systems research in the social sciences: Reconciling the metaphors and the models. Management Communication Quarterly, 13, 154-166. 

Dawkins, R. (1986). The Blind Watchmaker. New York: Norton. 

Drucker, P. (1945). Management: Tasks, Responsibilities, Practices. New York: Harper and Row. 

Economides, N. & Salop, S. C. (1992). Competition and integration among complements, and network market structure, Journal of Industrial Economics, 40, 105-123. 

Edwards, P. (1996). The Closed World: Computers and the Politics of Discourse. Cambridge, MA: MIT Press. 

Frissen, P. (1997). The virtual state: Postmodernisation, informatisation and public administration. In B. D. Loader (Ed.), The Governance of Cyberspace: Politics, Technology and Global Restructuring (pp. 111-125). London: Routledge. 

Fukuyama, F. (1999). Death of the hierarchy. Financial Times, 12 June, I. 

Goodwin, R. (1947). Dynamical coupling with especial reference to markets having production lags. Econometrica, 15, 181-204. 

Kaye, J. (1998). Economy and Nature in the Fourteenth Century: Money, Market Exchange, and the Emergence of Scientific Thought. New York: Cambridge University Press. 

Hayek, F. A. (1948). Individualism and Economic Order. Chicago: University of Chicago Press. 

Hirschhorn, L., & Gilmore, T. (1992). The new boundaries of the "boundaryless" company. Harvard Business Review, 70, 104-115. 

Hodgson, G. M. (1991). Economic evolution: Intervention contra Pangloss. Journal of Economic Issues, 25, 519-533. Reprinted in Hodgson (1993). 

Hodgson, G. M. (1993). Economics and Evolution: Bringing Life Back into Economics. Cambridge: Polity Press. 

Hodgson, G. M. (1999). Evolution and Institutions: On Evolutionary Economics and the Evolution of Economics. Cheltenham, UK: Elgar. 

Langlois, R. N. & Robertson, P. L. (1992) Networks and innovation in a modular system: Lessons from the microcomputer and stereo component industries, Research Policy, 21, 297-313. 

Lovejoy, A. O. (1936). The Great Chain of Being: A Study of the History of an Idea. Cambridge, MA: Harvard University Press. 

March, J. G., & Olsen, J. P. (1995). Democratic Governance. New York: Free Press. 

March, J. G., & Simon, H. A. (1958). Organizations. New York: Wiley. 

Margulis, L. (1998). Symbiotic Planet: A New Look at Evolution. New York: Basic Books. 

Maturana, H. R., & Varela, F. J. (1980). Autopoiesis and Cognition: The Realization of the Living. Dordrecht: Reidel. 

Mayr, O. (1986) Authority, Liberty, and Automatic Machinery in Early Modern Europe. Baltimore: Johns Hopkins University Press. 

McReynolds, P. (1980). The clock metaphor in the history of psychology. In T. Nickles (Ed.), Scientific Discovery: Case Studies (pp. 97-112). Dordrecht: Reidel. 

Meyer M. H. & Lehnerd, A. P. (1997) The Power of Product Platforms: Building Value and Cost Leadership. New York: Free Press. 

Minsky, M., & Papert, S. (1969). Perceptrons: An Introduction to Computational Geometry. Cambridge, MA: MIT Press. 

Nelson, R. R., & Winter, S. G. (1982). An Evolutionary Theory of Economic Change. Cambridge, MA: Harvard University Press. 

Newell, A., Shaw, J. C., & Simon, H. A. (1960). Report on a general problem-solving program. In Proceedings of the International Conference on Information Processing, Paris, 256-264. 

Newell, A., & Simon, H. A. (1963). GPS, a program that simulates human thought. In E. A. Feigenbaum & J. Feldman (Eds.), Computers and Thought (pp. 279-293). New York: McGraw-Hill. Originally published in 1961. 

Newell, A., & Simon, H. A. (1972). Human Problem Solving. Englewood Cliffs, NJ: Prentice-Hall. 

Noble, D. F. (1997). The Religion of Technology: The Divinity of Man and the Spirit of Invention. New York: Knopf. 

North, D. C., & Wallis, J. J. (1994). Integrating institutional change and technical change in economic history: A transaction cost approach. Journal of Institutional and Theoretical Economics, 150, 609-624. 

Panofsky, E. (1957). Gothic Architecture and Scholasticism. New York: Meridian Books. 

Poerksen, U. (1995) Plastic Words: The Tyranny of a Modular Language, translated by Jutta Mason and David Cayley. University Park: Pennsylvania State University Press. 

Posner, R. A. (1973). Economic Analysis of Law. Boston: Little, Brown. 

Schilling, M. A. (2000) Toward a general modular systems theory and its application to interfirm product modularity, Academy of Management Review, 25, 312-334. 

Simon, H. A. (1947). Administrative Behavior: A Study of Decision-Making Processes in Administrative Organization. New York: Macmillan. 

Simon, H. A. (1952). On the application of servomechanism theory in the study of production control. Econometrica, 20, 247-268. 

Simon, H. A. (1960). The New Science of Management Decision. New York: Harper. 

Simon, H. A. (1969). The architecture of complexity. In The Sciences of the Artificial (pp. 192-229). Cambridge, MA: MIT Press. 

Simon, H. A. (1991). Models of My Life. New York: Basic Books. 

Simon, H. A. (1997). An Empirically Based Microeconomics. Cambridge: Cambridge University Press. 

Vera, A. H., & Simon, H. A. (1993). Situated action: A symbolic interpretation. Cognitive Science, 17, 7-48.


LA EPISTEMOLOGÍA DE LA COMPLEJIDAD Edgar Morin CNRS, París Fuente: Gazeta de Antropología Nº 20, 2004 Texto 20-02 

Resumen La epistemología de la complejidad Las teorías de la complejidad a las que se ven abocadas no pocas disciplinas, tanto en la ciencias físicas como en las biológicas, las matemáticas o las ciencias socioculturales, están apuntando a un trasfondo en el que se construye una nueva epistemología: la epistemología de la complejidad. ¿Cómo entenderla? 

Abstract The epistemology of complexity The theories of complexity developed in many disciplines -like the physics, the biological sciences, the mathematics or the socio-cultural sciences- are pointing to a backgound in which a new epistemology is built: The epistemology of complexity. How to understand the complexity? 

Introducción La cuestión de la complejidad, ¡es compleja! En una escuela, la cuestión fue planteada a niños: "¿qué es la complejidad?". 

La respuesta de una alumna fue: "la complejidad es una complejidad que es compleja". 

Es evidente que se encontraba en el corazón de la cuestión. Pero antes de abordar esa dificultad, es necesario decir que el dogma, la evidencia subyacente al conocimiento científico clásico, es, como decía Jean Perrin, que el papel del conocimiento es explicar lo visible complejo por lo invisible simple. 

Más allá de la agitación, la dispersión, la diversidad, hay leyes. Así pues, el principio de la ciencia clásica es, evidentemente, el de legislar, plantear las leyes que gobiernan los elementos fundamentales de la materia, de la viday para legislar, debe desunir, es decir, aislar efectivamente los objetos sometidos a las leyes. 

Legislar, desunir, reducir, estos son los principios fundamentales del pensamiento clásico. En modo alguno pretendo decretar que esos principios estén a partir de ahora abolidos. 

Pero las prácticas clásicas del conocimiento son insuficientesMientras que la ciencia de inspiración cartesiana iba muy lógicamente de los complejo a lo simple, el pensamiento científico contemporáneo intenta leer la complejidad de lo real bajo la apariencia simple de los

De hecho, no hay fenómeno simple. 

Tómese el ejemplo del beso. Piénsese en la complejidad que es necesaria para que nosotros, humanos, a partir de la boca, podamos expresar un mensaje de amor. Nada parece más simple, más evidente. Y sin embargo, para besar, hace falta una boca, emergencia de la evolución del hocico. 

En necesario que haya habido la relación propia en los mamíferos en la que el niño mama de la madre y la madre lame al niño. Es necesario, pues, toda la evolución complejizante que transforma al mamífero en primate, luego en humano, y, anteriormente, toda la evolución que va del unicelular al mamífero. El beso, además, supone una mitología subyacente que identifica el alma con el soplo que sale por la boca: depende de condiciones culturales que favorecen su expresión. 

Así, hace cincuenta años, el beso en el Japón era inconcebible, incongruente. Dicho de otro modo, esa cosa tan simple surge de una hinterland de una complejidad asombrosa. 

Hemos creído que el conocimiento tenía un punto de partida y un término; hoy pienso que el conocimiento es una aventura en espiral que tiene un punto de partida histórico, pero no tiene término, que debe sin cesar realizar círculos concéntricos; es decir, que el descubrimiento de un principio simple no es el término; reenvía de nuevo al principio simple que ha esclarecido en parte. 

Así, piénsese en el caso del código genético que, una vez descubierto, nos reenvía a la pregunta: ¿por qué existe esa diversidad extraordinaria de formas en los animales y los vegetales? 

Cito una frase de Dobzhansky, el biólogo, que dice: "Desgraciadamente la naturaleza no ha sido lo bastante gentil como para hacer las cosas tan simples como nosotros quisiéramos que fuesen. Debemos afrontar la complejidad." Un físico, que es al mismo tiempo un pensador, David Bohm, y que ataca ya el dogma de la elementalidad -sobre el que retornaré-, dice: "Las leyes físicas primarias jamás serán descubiertas por una ciencia que intenta fragmentar el mundo en sus constituyentes."Aunque Bachelard dijese que, de hecho, la ciencia contemporánea buscaba -porque el pensaba en la física- la complejidad, es evidente que los científicos desconocían que eso era lo que les concernía. Frecuentemente tienen una doble consciencia; creensiempre obedecer a la misma vieja lógica que han recibido en la escuela; pero, de hecho, sin que lo sepan, en su espíritu trabaja otra lógica y otros principios de conocimiento. 
Pero a la complejidad le ha costado emerger. Le ha costado emerger, ante todo, porque no ha sido el centro de grandes debates y de grandes reflexiones, como por ejemplo ha sido el caso de la racionalidad con los debates entre Lakatos y Feyerabend o Popper y KuhnLa cientificidad, la falsabilidad son grandes debates de los que se habla; pero la complejidad nunca ha sido debatida. 

La bibliografía sobre la complejidad es, al menos por lo que yo conozco, muy limitada. Para mí, la contribución importante es el artículo de Weaver, colaborador de Shannon, como ustedes saben, en la teoría de la información, quien, en 1948, escribió el artículo "Science and complexity" en el Scientific American, artículo que es un resumen de un estudio más extensoEs von Neumann quien, en la teoría "On self reproducing automata" aborda con una visión muy profunda esa cuestión de la complejidad de las máquinas, de los autómatas naturales en comparación con los autómatas artificiales. 

Se refirió a ella Bachelard en Le nouvel esprit scientifique; von Foerster en diversos escritos, particularmente en su texto, ahora bien 

conocido, "On self organizing systems and their environment". 

Está H. A. Simon: "Architecture of complexity", que fue primero un artículo autónomo y que fue luego compilado en su libro. Podemos encontrar la complejidad, en Francia, en las obras de Henri Atlan: Entre le cristal et la fumée, y estaba Hayek quien escribió un artículo titulado "The theory of complex phenomena" en Studies in philosophy, politics and economics, que es bastante interesante. Desde luego, se ha tratado mucho de la complejidad en el dominio teórico, físico, en el dominio sistémico; pero con frecuencia, en mi opinión, se ha tratado sobre todo de lo que Weaver llama la complejidad desorganizada que hizo irrupción en el conocimiento con el segundo principio de la termodinámica, el descubrimiento de ese desorden microscópico, microcorpuscular, en el universo. Pero la complejidad organizada es, con frecuencia, reconducida a la complicación. ¿Qué es la complicación? 

Cuando hay un número increíble de interacciones, por ejemplo entre moléculas en una célula o neuronas en un cerebro, ese número increíble de interacciones y de interretroacciones sobrepasa evidentemente toda capacidad de computación -no solamente para un espíritu humano, sino incluso para un ordenador muy perfeccionado- y entonces efectivamente es mejor atenerse al input y al output. Dicho de otro modo, es muy complicado; la complicación es el enredamiento de interretroacciones. Ciertamente, es un aspecto de la complejidad, pero creo que la importancia de la noción está en otra parte. La complejidad es mucho más una noción lógica que una noción cuantitativa. Posee desde luego muchos soportes y caracteres cuantitativos que desafían efectivamente los modos de cálculo; pero es una noción de otro tipo. Es una noción a explorar, a definir. 

La complejidad nos aparece, ante todo, efectivamente como irracionalidad, como incertidumbre, como angustia, como desorden. 

Dicho de otro modo, la complejidad parece primero desafiar nuestro conocimiento y, de algún modo, producirle una regresión. 

Cada vez que hay una irrupción de complejidad precisamente bajo la forma de incertidumbre, de aleatoriedad, se produce una resistencia muy fuerte. Hubo una resistencia muy fuerte contra la física cuántica, porque los físicos clásicos decían: "es el retorno a la barbarie, no es posible situarse en la indeterminación cuando desde hace dos siglos todas las victorias de la ciencia han sido las del determinismo". 

Ha sido necesario el éxito operacional de la física cuántica para que, finalmente, se comprenda que la nueva indeterminación constituía también un progreso en el conocimiento de la misma determinación. La idea de la complejidad es una aventura. Diría incluso que no podemos intentar entrar en la problemática de la complejidad si no entramos en la de la simplicidad, porque la simplicidad no es tan simple como esto. En mi texto "Los mandamientos de la complejidad" publicado enScience avec conscience, intenté extraer trece principios del paradigma de simplificación, es decir principios de intelección mediante simplificación, para poder extraer de modo correspondiente, complementario y antagonista a la vez -he aquí una idea típicamente compleja- principios de intelección compleja. 

La intelección compleja que está relacionada con todo eso. 

Mandamientos del paradigma de simplificación 

1. Podemos decir que el principio de la ciencia clásica es: legislar. Corresponde al principio del derecho, quizás. Es una legislación, pero no es anónima, que se encuentra en el universo, es la ley

Y ese principio es un principio universal que fue formulado por el lugar común: "Sólo hay ciencia de lo general", y que comporta la expulsión de lo local y de lo singular. 

Ahora bien, lo que es interesante es que, en el universo incluso, en lo universal, ha intervenido la localidad. Quiero decir que hoy parece que nuestro universo es un fenómeno singular, que comporta determinaciones singulares y que las grandes leyes que lo rigen, que podemos llamar leyes de interacción (como las interacciones gravitacionales, las interacciones electromagnéticas, las interacciones fuertes, en el seno de los núcleos atómicos), esas leyes de interacción no son leyes en sí, sino leyes que sólo se manifiestan, sólo se actualizan a partir del momento en que hay elementos en interacción; si no hubiese partículas materiales, no habría gravitación, la gravitación no existe en sí. Esas leyes no tienen un carácter de abstracción y están ligadas a las determinaciones singulares de nuestro universo; hubiese podido haber otros universos posibles -quizás los haya- y que tuviesen otros caracteres singularesLa singularidad está a partir de ahora profundamente inscrita en el universo; y aunque el principio de universalidad reside en el universovale para un universo singular donde aparecen fenómenos singulares y el problema es combinar el reconocimiento de lo singular y de lo local con la explicación universal. 

Lo local y singular deben cesar de ser rechazados o expulsados como residuos a eliminar

2. El segundo principio era la desconsideración del tiempo como proceso irreversible; las primeras leyes físicas pudieron muy bien ser concebidas en un tiempo reversible. Y, de alguna manera, la explicación estaba depurada de toda evolución, de toda historicidad. Y también aquí hay un problema muy importante: el del evolucionismo generalizado. 

Hoy el mundo, es decir el cosmos en su conjunto y la materia física en su constitución (particular, nuclear, atómica, molecular), tiene una historia. 

Ya Ullmo, en esa epistemología piagetiana a la que François Meyer colaboró, decía muy firmemente: "La materia tiene una historia"; hoy todo lo que es material es pensado, concebido a través de su génesis, su historia. El átomo es visto históricamente. El átomo de carbono es visto a través de su formación en el interior de un sol, de un astro. Todo es profundamente historizado. La vida, la célula, François Jacob lo subraya con frecuencia, una célula es también un corte en el tiempo. Dicho de otro modo, contrariamente a esa visión que ha reinado durante un tiempo en las ciencias humanas y sociales, según la cual se creía poder establecer una estructura por eliminación de toda dimensión temporal y considerarla en sí fuera de la historia, hoy de todas las otras ciencias llega la llamada profunda para ligar lo estructural u organizacional (prefiero decir esto último y diré por qué) con lo histórico y evolutivo. Y lo que es importante efectivamente, es que el problema del tiempo se ha planteado de manera totalmente paradójica en el siglo último. 

En efecto, en el momento mismo en que se desarrollaba el evolucionismo ascensional bajo su forma darviniana, es decir unaidea de evolución complejizante y diversificante a partir de una primera protocélula viviente, en el momento en que la historia humana era vista como un proceso de desarrollo y de progreso, en ese mismo momento, el segundo principio de latermodinámica inscribía, él mismo, una especie de corrupción ineluctablede degradación de la energía que podía ser traducida bajo la óptica boltzmaniana como un crecimiento del desorden y de la desorganización. 

Estamos confrontados a una doble temporalidad; no es una flecha del tiempo lo que ha aparecido, son dos flechas del tiempo, y dos flechas que van en sentido contrario. Y sin embargo, es el mismo tiempo; y sin embargo es la misma aventura cósmica: ciertamente, el segundo principio de la termodinámica inscribe un principio de corrupción, de dispersión en el universo físico; pero al mismo tiempo, este universo físico, en un movimiento de dispersión, se ha constituido y continúa constituyéndose. Se constituye de galaxias, de astros, de soles, dicho de otro modo, se desarrolla mediante la organización al mismo tiempo que se produce mediante la desorganización. 

El mundo biológico es un mundo que evoluciona; es la vida; pero la vida, al mismo tiempo, se hace a través de la muerte de individuos y a través de la muerte de especies. Se ha querido yuxtaponer esos dos principios; es lo que Bergson hizo; Bergson, uno de los raros pensadores que ha mirado de frente el segundo principio; pero, según él, ese principio era la prueba de que la materia biológica era diferente de la materia física, puesto que la materia física tiene algo de corrupto en ella, mientras que la sustancia biológica no padece el efecto del segundo principio. 

Desgraciadamente para él, se descubrió a partir de los años 50 que la originalidad de la vida no está en su materia constitutiva, sino en su complejidad organizacional. Estamos, pues, confrontados a ese doble tiempo que no solamente tiene dos flechas, sino que además puede ser a la vez irreversible y reiterativo. 

Ha sido, evidentemente, la emergencia del pensamiento cibernético la que lo ha mostrado. No era solamente el hecho de que, a partir de un flujo irreversible, puede crearse un estado estacionario, por ejemplo el del torbellino; en el encuentro de un flujo irreversible y de un obstáculo fijo, como el arco de un puente, se crea una especie de sistema estacionario que es al mismo tiempo móvil, puesto que cada molécula de agua que torbellinea es arrastrada de nuevo por el flujo, pero que manifiesta una estabilidad organizacional. 

Todo esto se reencuentra en todas las organizaciones vivientes: irreversibilidad de un flujo energético y posibilidad de organización por regulación y sobre todo por recursión, es decir, autoproducción de sí. Luego tenemos el problema de una temporalidad extremamente rica, extremamente múltiple y que es compleja. Nos hace falta ligar la idea de reversibilidad y de irreversibilidad, la idea de organización de complejización creciente y la idea de desorganización creciente. ¡He aquí el problema al que está confrontada la complejidad! 

Mientras que el pensamiento simplificante elimina el tiempo, o bien no concibe más que un solo tiempo
 (el del progreso o el de la corrupción), el pensamiento complejo afronta no solamente el tiempo, sino el problema de la politemporalidad en la que aparecen ligadas repetición, progreso, decadencia. 

3. El tercer principio de simplificación es el de la reducción o también de la elementalidad. 

El conocimiento de los sistemas puede ser reducido al de sus partes simples o unidades elementales que los constituyen.Sobre esto, seré muy breve. Resumo. Es en el dominio físico donde ese principio parecía haber triunfado de modo incontestable, dominio que, evidentemente, se encuentra más afectado por ese principio. He hecho alusión al problema de la partícula que es aporética (onda y corpúsculo), y por tanto la sustancia es fluctuante; nos dimos cuenta de que en lo que se creía ser el elemento puro y simple, a partir de ahora existía la contradicción, la incertidumbre, lo compuesto -aludo a la teoría de los quarks- y quizás lo inseparable -aludo a la teoría del Bootstrap-. 

Hay límites a la elementalidad; pero esos límites no son solamente intrínsecos; tienen también que ver con el hecho de que, una vez que hemos inscrito todo en el tiempo, la elementalidad aparece también como eventualidad, es decir que el elemento constitutivo de un sistema puede también ser visto como evento. 

Por ejemplo, existe una visión estática que consiste en considerarnos nosotros mismos en tanto que organismos; estamos constituidos por 30 o 50 mil millones de células. En modo alguno, y creo lo que Atlan justamente precisó; no estamos constituidos por células; estamos constituidos por interacciones entre esas célulasNo son ladrillos unas al lado de las otras; están en interacción

Y esas interacciones, son acontecimientos, ellos mismos ligados por acontecimientos repetitivos que son martilleados por el movimiento de nuestro corazón, movimiento a la vez regular e inscrito en un flujo irreversible.Todo elemento puede ser leído también como evento. Y está sobre todo el problema de la sistematicidad; hay niveles de emergencia; los elementos asociados forman parte de conjuntos organizadosal nivel de la organización del conjunto, emergen cualidades que no existen en el nivel de las partes. 

Cierto, hemos descubierto que finalmente todo eso pasa en nuestro ser, no solamente en nuestro organismo, sino incluso en el pensamiento, en nuestras ideas, en nuestras decisiones, que pueden reducirse a torbellinos de electrones. 

Pero es evidente que no se puede explicar la conquista de la Galia por Julio César sólo por los movimientos de torbellinos electrónicos de su cerebro, de su cuerpo y de los de los legionarios romanos. Incluso si un demonio consiguiese determinar esas interacciones físicas, nada comprendería de la conquista de la Galia que sólo puede comprenderse al nivel de la historia romana y de las tribus galas

Del mismo modo, diría que en términos de cambios bioquímicos, los amores de César y de Cleopatra son totalmente ininteligibles. Así pues, es cierto que no reduciremos los fenómenos antroposociales a los fenómenos biológicos, ni éstos a las interacciones físico-químicas. 

4. El cuarto principio simplificador es el del Orden-Rey. El Universo obedece estrictamente a leyes deterministas, y todo lo que parece desorden (es decir, aleatorio, agitador, dispersivo) sólo es una apariencia debida únicamente a la insuficiencia de nuestro conocimiento. 

Las nociones de orden y ley son necesarias, pero insuficientes. Sobre esto, Hayek, por ejemplo, muestra bien que cuanta más complejidad hay, menos útil es la idea de ley. 

Hayek piensa, obviamente, en la complejidad socioeconómica; es su tipo de preocupación; pero él se da cuenta de que es muy difícil, porque son complejos, predecir los fenómenos sociales. Es evidente que las "Leyes" de la Sociedad o las "Leyes" de la Historia son tan generalestan triviales, tan planas, que carecen de interés. Hayek dice: "Por lo tanto, la búsqueda de leyes no es marca del proceder científico, sino solamente un carácter propio de las teorías sobre fenómenos simples". 

Vincula muy fuertemente la idea de leyes con la idea de simplicidad. Pienso que si esta visión es bastante justa en lo que concierne a los fenómenos sociales, no lo es menos que, en el mundo físico o biológico, el conocimiento debe a la vez detectar el orden (las leyes y determinaciones) y el desorden, reconocer las relaciones entre orden y desorden. Lo que es interesante, es que el orden y el desorden tienen una relación de complementariedad y complejidad. 

Tomemos el ejemplo, que frecuentemente cito, de un fenómeno que presenta, bajo una perspectiva, un carácter aleatorio sorprendente, y, bajo otra perspectiva, un carácter de necesidad; ese fenómeno es la constitución del átomo de carbono en las calderas solares. Para que ese átomo se constituya, es necesario que se produzca el encuentro, exactamente en el mismo momento, de tres núcleos de helio, lo que es un acontecimiento completamente aleatorio e improbable. Sin embargo, desde que ese encuentro se produce, una ley entra en acción; una regla, una determinación muy estricta interviene; el átomo de carbono se crea. Así pues, el fenómeno tiene un aspecto aleatorio y un aspecto de determinación. Además, el número de interacciones entre núcleos de helio es enorme en el seno del sol; y además ha habido muchas generaciones de soles en nuestro sistema solar; finalmente con el tiempo, se crea una cantidad considerable de átomos de carbono, se crea en todo caso una amplia reserva necesaria para la creación y el desarrollo de la vida. Vemos como un fenómeno que parece ser extremamente improbable, por su carácter aleatorio, finalmente, es cuantitativamente bastante importante y puede entrar en una categoría estadística. Todo lo cual depende, pues, de la perspectiva desde la cual se mire y diría sobre todo que es interesante -es necesario- reunir todas esas perspectivas. Es en este sentido que propongo un tetragrama, que en modo alguno es un principio de explicación, sino que es mucho más un recordatorio indispensable; es el tetragrama orden-desorden-interacciones-organización. Esto debo también precisarlo bien; cuando se dice tetragrama, se piensa en un tetragrama muy famoso, aquel que en el Monte Sinaí, el Eterno proporcionó a Moisés para revelarle su nombre, nombre sagrado e impronunciable: JHVH. Aquí el tetragrama del que hablo no es la Fórmula suprema: expresa la idea de que toda explicación, toda intelección jamás podrán encontrar un principio último; éste no será el orden, ni una ley, ni una fórmula maestra E= MC2, ni el desorden puro. Desde que consideramos un fenómeno organizado, desde el átomo hasta los seres humanos pasando por los astros, es necesario hacer intervenir de modo específico principios de orden, principios de desorden y principios de organización. Los principios de orden pueden incluso crecer al mismo tiempo que los de desorden, al mismo tiempo que se desarrolla la organización

Por ejemplo, Lwoff escribió un libro titulado L'ordre biologique, es un libro muy interesante porque, en efecto, hay principios de orden que son válidos para todos los seres vivientes, para todo organización viviente. Sólo que esos principios de orden válidos para toda organización viviente pueden existir si las organizaciones vivientes son vivientes; así pues, no existían antes de la existencia de la vida, sino en estado virtual, y cuando la vida se extinga cesarán de existir. He aquí un orden que tiene necesidad de autoproducirse mediante la organización y ese orden es bastante particular puesto que tolera una parte importante de desorden, incluso hasta colabora con el desorden como von Neumann lo vio acertadamente en su teoría de los autómatas. Así pues, hay, al mismo tiempo que crece la complejidad, crecimiento del desorden, crecimiento del orden, crecimiento de la organización (y perdonen que use esa palabra cuantitativa de "crecimiento"). Es cierto que la relación orden-desorden-organización no es solamente antagónica, es también complementaria y es en esa dialéctica de complementariedad y de antagonismo donde se encuentra la complejidad. 5. La antigua visión, la visión simplificante, es una visión en la que evidentemente la causalidad es simple; es exterior a los objetosles es superior; es lineal. 

Ahora bien, hay una causalidad nueva, que introdujo primeramente la retroacción cibernética, o feedback negativo, en la cual el efecto hace bucle con la causa y podemos decir que el efecto retroactúa sobre la causa

Este tipo de complejidad se manifiesta en el ejemplo de un sistema de calefacción de una habitación provisto de un termostato, donde efectivamente el mismo termostato inicia o detiene el funcionamiento de la máquina térmica. Lo que es interesante, es que no es solamente ese tipo de causalidad en bucle el que se crea; es también una endo-exo-causalidad, puesto que es efectivamente también el frío o el calor exterior lo que va a desencadenar la detención o la activación del dispositivo de calefacción central; pero en este caso, la causa exterior desencadena un efecto interior inverso de su efecto natural: el frío exterior provoca el calor interior. Porque hace frío fuera, la habitación está caliente. Desde luego, todo esto puede ser explicado de manera muy simple cuando se consideran los segmentos constitutivos del fenómeno del bucle retroactivo; pero el bucle que liga esos segmentos, el modo de ligar esos segmentos deviene complejo. Hace aparecer la endo-exo-causalidad. La visión simplificante, tan pronto como se trata de máquinas vivientes, busca primeramente la exo-causalidad simple; ésta ha sido la obsesión conductista, por ejemplo. Se piensa que el estímulo que provocó una respuesta (como la saliva del perro) produjo casi esa respuesta.Después, nos dimos cuenta de que lo interesante era saber también lo que pasaba en el interior del perro y reconocer cuál era la naturaleza organizadora de la endo-causalidad que estimuló al perro a alimentarse. Todo lo que es viviente, y a fortiori todo lo que es humano, debe comprenderse a partir de un juego complejo o dialógico de endo-exo-causalidad. Así, es necesario superar, incluido en el desarrollo histórico, la alternativa estéril entre endo-causalidad y exo-causalidad. En lo que concierne a la extinta URSS, por ejemplo, dos visiones simplificantes se enfrentan: la primera concibe el estalinismo según una causalidad puramente endógena que va de Marx a Lenin y de éste a Stalin como una especie de desarrollo cuasi deductivo a partir de un cuasi-gen doctrinal; al contrario, otros lo ven como un fenómeno accidental, es decir, ven en el estalinismo el efecto de las determinaciones del pasado zarista, de la guerra civil, del cerco capitalista, etc. Resulta evidente que ni una ni la otra de esas visiones son suficientes; lo interesante es ver la espiral, el bucle de fortalecimiento de causas endógenas y de causas exógenas que hace que en un momento el fenómeno se desarrolle en una dirección más que en otra, dando por presupuesto que existen desde el comienzo virtualidades de desarrollo múltiples. Tenemos, pues, sobre el tema de la causalidad una revisión muy importante por hacer. 

6. Sobre la problemática de la organización, no quiero insistir. Diré que en el origen está el principio de emergencia, es decir que cualidades y propiedades que nacen de la organización de un conjunto retroactúan sobre ese conjunto; hay algo de no deductivo en la aparición de cualidades o propiedades de todo fenómeno organizado. En cuanto al conocimiento de un conjunto, es necesario pensar en la frase de Pascal que suelo citar: "Tengo por imposible concebir las partes al margen del conocimiento del todo, tanto como conocer el todo sin conocer particularmente las partes". Esto remite la cuestión del conocimiento a un movimiento circular ininterrumpidoEl conocimiento no se interrumpe. Conocemos las partes, lo que nos permite conocer mejor el todo, pero el todo vuelve a permitir conocer mejor las partes. En este tipo de conocimiento, el conocimiento tiene un punto de partida cuando se pone en movimiento, pero no tiene término. Tenemos que vérnoslas en la naturaleza, no solamente biológica sino física, con fenómenos de auto-organización que plantean problemas enormes. No insisto sobre ello. Los trabajos de Pinson, que conocemos y que encuentro muy notables, dan nacimiento, desde el punto de vista organizacional, a una concepción que podemos llamar hologramática. 

Lo interesante es que tenemos de ello un ejemplo físico que es el holograma producido por el láser; en el holograma, cada parte contiene la información del todo. No la contiene, por lo demás, totalmente; pero la contiene en gran parte, lo que hace que efectivamente podamos romper la imagen del holograma, reconstituyéndose otros micro-todos fragmentarios y atenuados.Thom dijo: "La vieja imagen del hombre-microcosmos, reflejo del macrocosmos, mantiene todo su valor; quien conozca al hombre conocerá el universo". 

Sin ir tan lejos, es notable constatar que, en la organización biológica de los seres multicelulares, cada célula contiene la información del todo. Contiene potencialmente el todo. Y en este sentido es un modo hologramático de organización. En el lenguaje, el discurso toma sentido en relación a la palabra, pero la palabra sólo fija su sentido en relación a los discursos en los que se encuentra encadenada. Aquí también hay una ruptura con toda visión simplificante en la relación parte-todo; nos hace falta ver cómo el todo está presente en las partes y las partes presentes en el todo. Por ejemplo, en las sociedades arcaicas, en las pequeñas sociedades de cazadores-recolectores, en las sociedades que llamábamos "primitivas", la cultura estaba engramada en cada individuo. Había en ellas algunos que poseían la totalidad de la cultura, esos eran los sabios, eran los ancianos; pero los otros miembros de la sociedad tenían en su espíritu el conocimiento de saberes, normas, reglas fundamentales. Hoy, en las sociedades-naciones, el Estado conserva en él las Normas y Leyes, y la Universidad contiene el Saber colectivo. No obstante, pasamos, tras numerosos años en la familia primero, y luego sobre todo en la escuela, a engramar la cultura del todo; así cada individuo porta prácticamente, de un modo vago, inacabado, toda la sociedad en él, toda su sociedad. 
Los problemas de organización social sólo pueden comprenderse a partir de este nivel complejo de la relación parte-todo. Aquí interviene la idea de recursión organizacional que, a mi parecer, es absolutamente crucial para concebir la complejidad de la relación entre partes y todo. Las interacciones entre individualidades autónomas, como en las sociedades animales o incluso en las células, puesto que las células tienen cada una su autonomía, producen un todo, el cual retroactúa sobre las partes paraproducirlas. Dicho de otro modo, las interacciones entre individuos hacen la sociedad; de hecho, la sociedad no tendría ni un gramo de existencia sin los individuos vivientes; si una bomba muy limpia, como la bomba de neutrones, aniquilase toda Francia, permanecerían todos los monumentos: el Elíseo, la Cámara de los Diputados, el Palacio de Justicia, los Archivos, la Educación Nacional, etc.; pero no habría ya sociedad, porque, evidentemente, los individuos producen la sociedad. No obstante, la sociedad misma produce los individuos o, al menos, consuma su humanidad suministrándoles la educación, la cultura, el lenguaje. Sin la cultura, seríamos rebajados al más bajo rango de los primates. Dicho de otro modo, son las interacciones entre individuos las que producen la sociedad; pero es la sociedad la que produce al individuo. He aquí un proceso de recursividad organizacional; lo recursivo se refiere a procesos en los cuales los productos y los efectos son necesarios para su propia producción. El producto es al mismo tiempo el productor; lo que supone una ruptura total con nuestra lógica de las máquinas artificiales en la que las máquinas producen productos que les son exteriores

Ver nuestra sociedad a imagen de esas máquinas, es olvidar que esas máquinas artificiales están en el interior de una sociedad que se autoproduce ella misma

7. El pensamiento simplificante fue fundado sobre la disyunción entre el objeto y el medio ambiente. Se comprendía el objeto aislándolo de su medio ambiente; era tanto más necesario aislarlo como era necesario extraerlo del medio ambiente para colocarlo en un nuevo medio ambiente artificial que se controlaba, que era el medio de la experiencia, de la ciencia experimental.Efectivamente, gracias a la experiencia, se podían variar las condiciones del comportamiento del objeto, y, por lo mismo, conocerlo mejor. La experimentación a hecho progresar considerablemente nuestro conocimiento. Pero hay otro conocimiento que sólo puede progresar concibiendo las interacciones con el medio ambiente. Este problema se encuentra en física, donde las grandes leyes son leyes de interacción. Se encuentra también en biología, donde el ser viviente es un sistema a la vez cerrado y abiertoinseparable de su medio ambiente del que tiene necesidad para alimentarse, informarse, desarrollarse. Nos hace falta, pues, no desunir, sino distinguir los seres de su medio ambiente. Por otra parte, el pensamiento simplificante se fundó sobre la disyunción absoluta entre el objeto y el sujeto que lo percibe y concibe. Nosotros debemos plantear, por el contrario, el principio de relación entre el observador-conceptuador y el objeto observado, concebido. Hemos mostrado que el conocimiento físico es inseparable de la introducción de un dispositivo de observación, de experimentación (aparato, desglose, reja) y por esto incluye la presencia del observador-conceptuador en toda observación o experimentación. Aunque no hubiese hasta el presente ninguna virtud heurística en el conocimiento astronómico, es interesante apuntar el principio antrópico extraído por Brandon Carter: "La presencia de observadores en el universo, impone determinaciones, no solamente sobre la edad del universo a partir de la cual los observadores pueden aparecer, sino también sobre el conjunto de sus características y de los parámetros fundamentales de la física que se despliega ahí". Añade que la versión débil del principio antrópico estipula que la presencia de observadores en el universo impone determinaciones sobre la posición temporal de estos últimos; la versión fuerte del principio antrópico supone que la presencia de observadores en el universo impone determinaciones, no solamente sobre su posición temporal, sino también sobre el conjunto de propiedades del universo. Es decir, que el universo pertenece a una clase de modelos de universo capaces de abrigar seres vivientes y de ser estudiados por ellos. Lo que es una cosa extraordinaria, puesto que todo nuestro conocimiento del cosmos, efectivamente, hace de nosotros seres cada vez más periféricos y marginales. No solamente estamos en una estrella de extrarradio, de una galaxia del extrarradio, sino que además somos seres vivientes, quizás los únicos seres vivientes del universo -por abreviar, no tenemos prueba de que haya otros en él- y desde el punto de vista de la vida, somos la única rama donde ha aparecido esa forma de conciencia reflexiva que dispone de lenguaje y que puede verificar científicamente sus conocimientos

El universo nos marginaliza totalmente. 

Ciertamente, el principio antrópico en absoluto suprime esa marginalidad; pero dice que es necesario, de una determinada manera, que el universo sea capaz, incluso de un modo altamente improbable, de hacer seres vivientes y seres conscientes

Desde la versión débil, el ejemplo que da es bastante interesante; dice: "Nuestro sol tiene 5 mil millones de años; es un adulto; tiene asegurado, salvo error, 10 mil millones de años. La vida comenzó tal vez hace 4 mil millones de años, es decir, prácticamente al principio del sistema solar. Nosotros, seres humanos, aparecimos en el medio de la edad solar". Hay aquí algo que no es puramente arbitrario, al azar. Suponiendo que la vida hubiese comenzado más tarde, no habría tenido, sin duda, condiciones de desarrollo posible; pero, si la vida hubiese empezado más tarde, la consciencia humana habría aparecido en el momento en que el sol hubiese comenzado a extinguirse, es decir en el momento en que quizás no habría sido más que un relámpago antes del crepúsculo final. 
Dicho de otro modo, tiene cierto interés intentar pensar nuestro sistema en relación a nosotros y nosotros en relación a nuestro sistema. Y es una invitación al pensamiento rotativo, de la parte al todo y del todo a la parte. Ya la reintroducción del observador en la observación había sido efectuada en la micro-física (Bohr, Heisenberg) y la teoría de la información (Brillouin). Aún de modo más profundo el problema se plantea en sociología y en antropología: ¿cuál es nuestro lugar, nosotros observadores-conceptuadores, en un sistema del que formamos parte? 

Tras la noción de observador se esconde la noción, aún deshonrosa, de sujeto. Sin duda, en física, puede prescindirse de la noción de sujeto, a condición de precisar bien que toda nuestra visión del mundo físico se hace mediante la intermediación de representaciones, de conceptos o de sistemas de ideas, es decir de fenómenos propios del espíritu humano. 
Pero, ¿podemos prescindir de la idea de observador-sujeto en un mundo social constituido por interacciones entre sujetos? 

8. a 11. Hay también otra cuestión que me parece importante, es que, en el conocimiento simplificante, las nociones de ser y de existencia estaban totalmente eliminadas por la formalización y la cuantificación. Ahora bien, creo que han sido reintroducidas a partir de la idea de autoproducción que, ella misma, es inseparable de la idea de recursión organizacional. Tomemos un proceso que se autoproduce y que así produce el ser; crea el "sí mismo". El proceso autoproductor de la vida produce seres vivientes. Estos seres son, en tanto que sistemas abiertos dependientes de su medio ambiente, sometidos a aleatoriedades, existentes. La categoría de existencia no es una categoría puramente metafísica; somos "seres-ahí", como dijo Heidegger, sometidos a las fluctuaciones del medio exterior y sometidos efectivamente a la inminencia a la vez totalmente cierta y totalmente incierta de la muerte. Dicho de otro modo, estas categorías del ser y de la existencia que parecen puramente metafísicas, las reencontramos en nuestro universo físico; pero el ser no es una sustancia; el ser sólo puede existir a partir del momento en que hay auto-organización. 

El sol es un ser que se autoorganiza evidentemente a partir, no de nada, sino a partir de una nube cósmica;
 y cuando el sol estalle, perderá su ser... Si podemos referirnos en lo sucesivo a principios científicos que permiten concebir el ser, la existencia, al individuo, al sujeto, es cierto que el estatus, el problema de las ciencias sociales y humanas, se modifica. Es muy importante, puesto que el drama, la tragedia de las ciencias humanas y de las ciencias sociales especialmente, es que, queriendo fundar su cientificidad sobre las ciencias naturales, encontró principios simplificadores y mutilantes en los que era imposible concebir el ser, imposible concebir la existencia, imposible concebir la autonomía, imposible concebir el sujeto, imposible concebir la responsabilidad

12. y 13. Ahora, llego al último punto, que es el más dramático. El conocimiento simplificante se funda sobre la fiabilidad absoluta de la lógica para establecer la verdad intrínseca de las teorías, una vez que éstas están fundadas empíricamente según los procedimientos de la verificación. Ahora bien, hemos descubierto, con el teorema de Gödel, la problemática de la limitación de la lógica. El teorema de Gödel ha demostrado los límites de la demostración lógica en el seno de sistemas formalizados complejos; éstos comportan al menos una proposición que es indecidible, lo que hace que el conjunto del sistema sea indecidible. 

Lo que es interesante en esta idea, es que se la puede generalizar: todo sistema conceptual suficientemente rico incluye necesariamente cuestiones a las que no puede responder desde sí mismo, pero a las que sólo se puede responder refiriéndose al exterior de ese sistema. Como dice expresamente Gödel: "El sistema sólo puede encontrar sus instrumentos de verificación en un sistema más rico o metasistema". Tarski lo dijo también claramente para los sistemas semánticos. 

Los metasistemas, aunque más ricos, comportan también una brecha y así seguidamente; la aventura del conocimiento no puede ser cerrada; la limitación lógica nos hace abandonar el sueño de una ciencia absoluta y absolutamente cierta, pero es necesario 
decir que no era sólo un sueño. Era el sueño finalmente de los años 20, el sueño del matemático Hilbert que creía efectivamente que podía probarse de modo absoluto por la metamatemática, matemáticamente, lógicamente, formalmente la verdad de una teoría

Era el sueño del positivismo lógico que creyó fundar con certeza la teoría científica. 

Ahora bien, Popper, después Kuhn, cada uno a su modo, han mostrado que lo propio de una teoría científica es ser biodegradable.

Hay aquí una brecha en la lógica a la que se añade otra brecha, que es el problema de la contradicción.
 Es un problema muy viejo, puesto que lo contradictorio o el antagonismo está presente en Heráclito, Hegel, Marx. La cuestión está en saber si la aparición de una contradicción es signo de error, es decir, si es necesario abandonar el camino que ha conducido a ella o, si por contrario, nos revela niveles profundos o desconocidos de la realidad

Existen contradicciones no absurdas, a las que nos conduce la observación, así la partícula se presenta al observador tanto como onda tanto como corpúsculo; esta contradicción no es una contradicción absurda; ella se funda sobre una andadura lógica;partiendo de determinadas observaciones, se llega a la conclusión de que lo observado es algo inmaterial, una onda; pero otras observaciones, no menos verificadas, nos muestran que, en otras condiciones, el fenómeno se comporta como una entidad discreta, un corpúsculo. Es la lógica la que conduce a esa contradicción. El verdadero problema es que es la misma lógica la que nos conduce a momentos aporéticos los cuales pueden o no pueden ser superados. Lo que revela la contradicción, si ella es insuperable, es la presencia de un nivel profundo de la realidad que cesa de obedecer a la lógica clásica o aristotélica. 

Diría, en dos palabras, que el trabajo del pensamiento, cuando es creador, es realizar saltos, transgresiones lógicas, pero que el trabajo de la verificación es retornar a la lógica clásica, al nudo deductivo, el cual, efectivamente, sólo opera verificaciones segmentarias. Podemos formular proposiciones, aparentemente contradictorias, como por ejemplo: yo soy otro

Yo "soy" otro, como decía Rimbaud, o esa hermosa frase de Tarde, por citar a un precursor de la sociología, que reza: "Lo más admirable de todas las sociedades, esa jerarquía de consciencia, esa feudalidad de almas vasallas de la que nuestra persona es la cima", es decir, esa multiplicidad de personalidades en el yo; en la identidad existe un tejido de nociones extremamente diversas, existe la heterogeneidad en lo idéntico. Todo esto es muy difícil de concebir, pero es así. Así, en el corazón del problema de la complejidad, anida un problema de principio de pensamiento o paradigma, y en el corazón del paradigma de complejidad se presenta el problema de la insuficiencia y de la necesidad de la lógica, del enfrentamiento "dialéctico" o dialógico de la contradicción. La epistemología compleja El segundo problema es el de la epistemología compleja que, en última instancia, es aproximadamente de la misma naturaleza que el problema del conocimiento del conocimiento.

[b]Continúa cuestiones de lo que he dicho, pero sobrepasándolas, englobándolas. ¿Cómo concebir ese conocimiento del conocimiento? 
Podemos decir que el problema del conocimiento científico podía plantearse a dos niveles. Estaba el nivel que podríamos llamar empírico, y el conocimiento científico, gracias a las verificaciones mediante observaciones y experimentaciones múltiples, extrae datos objetivos y, sobre estos datos objetivos, induce teorías que, se pensaba, "reflejaban" lo real. En un segundo nivel, esas teorías se fundaban sobre la coherencia lógica y así fundaban su verdad los sistemas de ideas. Teníamos, pues, dos tronos, el trono de la realidad empírica y el trono de la verdad lógica, de este modo se controlaba el conocimiento. Los principios de la epistemología compleja son más complejos: no hay un trono; no hay dos tronos; en modo alguno hay trono. Existen instancias que permiten controlar los conocimientos; cada una es necesaria; cada una es insuficiente. La primera instancia, es el espíritu. ¿Qué es el espíritu? El espíritu es la actividad de algo, de un órgano llamado cerebro. La complejidad consiste en no reducir ni el espíritu al cerebro, ni el cerebro al espíritu. El cerebro, evidentemente, es un órgano que podemos analizar, estudiar, pero que nombramos tal cual por la actividad del espíritu. Dicho de otro modo, tenemos algo que podemos llamar el espíritu-cerebro ligado y recursivo puesto que uno coproduce al otro de alguna manera. Pero de todas formas, este espíritu-cerebro ha surgido a partir de una evolución biológica, vía la hominización, hasta el homo llamado sapiens. Por lo tanto, la problemática del conocimiento debe absolutamente integrar, cada vez que ellas aparecen, las adquisiciones fundamentales de la bio-antropología del conocimiento. Y ¿cuáles son esas adquisiciones fundamentales? La primera adquisición fundamental es que nuestra máquina cerebral es hiper-compleja. El cerebro es uno y múltiple. La menor palabra, la menor percepción, la menor representación ponen en juego, en acción y en conexión miríadas de neuronas y múltiples estratos o sectores del cerebro.Éste es bihemisférico; y su funcionamiento favorable acontece en la complementariedad y en el antagonismo entre un hemisferio izquierdo más polarizado sobre la abstracción y el análisis, y un hemisferio derecho más polarizado sobre la aprehensión global y lo concreto. El cerebro es hipercomplejo igualmente en el sentido en que es "triúnico", según la expresión de Mac Lean. Porta en sí, no como la Trinidad tres personas en una, sino tres cerebros en uno, el cerebro reptiliano (celo, agresión), el cerebro mamífero (afectividad), el neocórtex humano (inteligencia lógica y conceptual), sin que haya predominancia de uno sobre otro. 

Al contrario, hay antagonismo entre esas tres instancias, y a veces, a menudo, es la pulsión quien gobierna la razón. Pero también, en y por ese desequilibrio, surge la imaginación. Lo más importante quizás en la bio-antropología del conocimiento nos retorna a las críticas kantianas, en mi opinión ineludibles; efectivamente, se ha descubierto mediante medios nuevos de observación y de experimentación lo que Kant descubrió mediante procedimientos intelectuales y reflexivos. 

Nuestro cerebro está en una caja negra que es el cráneo, no tiene
comunicación directa con el universo. Esa comunicación se efectúa indirectamente vía la red nerviosa a partir de las terminales sensoriales. 

¿Qué es lo que llega a nuestra retina, por ejemplo? Son estímulos, que en nuestro lenguaje actual llamamos fotones, que van a impresionar la retina y esos mensajes van a ser analizados por células especializadas, después transcritos en un código binario el cual va a llegar a nuestro cerebro donde, de nuevo, van, según procesos que no conocemos, a traducirse en representación. Es la ruina de la concepción del conocimiento-reflejo. Nuestras visiones del mundo son traducciones del mundo. Traducimos la realidad en representaciones, nociones, ideas, después en teoríasDesde ahora está experimentalmente demostrado que no existe diferencia intrínseca alguna entre la alucinación y la percepción. 

Podemos efectuar determinados estímulos sobre determinadas zonas del cerebro y hacer revivir impresiones, recuerdos con una fuerza alucinatoria sentida como percepción. Dicho de otro modo, lo que diferencia la percepción de la alucinación es únicamente la intercomunicación humana. Y quizás ni eso, pues hay casos de alucinación colectiva. 

A menos que se admita la realidad de la aparición de Fátima, es cierto que miles de personas, que una muchedumbre, pueden producir una misma alucinación. 

Así, del examen bio-antropológico del conocimiento se desprende un principio de incertidumbre fundamental; existe siempre una relación incierta entre nuestro espíritu y el universo exterior. Sólo podemos traducir su lenguaje desconocido atribuyéndole y adaptándole nuestro lenguaje. Así, hemos llamado "luz" a lo que nos permite ver, y entendemos hoy por luz un flujo de fotones que bombardean nuestras retinas. Es ya hora de que la epistemología compleja reintegre un personaje que ha ignorado totalmente, es decir, el hombre en tanto que ser bio-antropológico que tiene un cerebro

Debemos concebir que lo que permite el conocimiento es al mismo tiempo lo que lo limita. Imponemos al mundo categorías que nos permiten captar el universo de los fenómenos. Así, conocemos realidades, pero nadie puede pretender conocer La Realidad con "L" y "R". No hay sólo condiciones bio-antropológicas del conocimiento. Existen, correlativamente, condiciones socioculturales de producción de todo conocimiento, incluido el científico. Estamos en los comienzos balbucientes de la sociología del conocimiento

Una de sus enfermedades infantiles es reducir todo conocimiento, incluido el científico, únicamente a su enraizamiento sociocultural; ahora bien, desgraciadamente, no se puede hacer del conocimiento científico una ideología del mismo tipo que las ideologías políticas, aunque -y volveré sobre ello- En ese sentido, una teoría científica comporta inevitablemente un carácter ideológico. Existen siempre postulados metafísicos ocultos en y bajo la actividad teórica (Popper, Holton). Pero la ciencia establece un diálogo crítico con la realidad, diálogo que la distingue de otras actividades cognitivas. 
Por otro lado, la sociología del conocimiento está aún poco desarrollada y comporta en ella una paradoja fundamental; seríanecesario que la sociología fuese más potente que la ciencia que estudia para poderla tratar de modo plenamente científico; ahora bien, desgraciadamente la sociología es científicamente menos potente que la ciencia que examina. Eso quiere decir evidentemente que es necesario desarrollar la sociología del conocimiento. 

Existen estudios interesantes, pero muy limitados, que son estudios de sociología de los laboratorios; ponen de manifiesto que un laboratorio es un micro-medio humano donde bullen ambiciones, celos, rivalidades, modas... Se dudaba un poco de ello. Es cierto que esto resumerge la actividad científica en la vida social y cultural; pero no se trata sólo de eso. Hay mucho más que hacer desde el punto de vista de la sociología de la cultura, de la sociología de la intelligentsia (Mannheim). 

Hay todo un dominio extremamente fecundo por prospectar. 
A este nivel es preciso desarrollar una socio-historia del conocimiento, incluida en ella la historia del conocimiento científico

Acabamos de ver que toda teoría cognitiva, incluida la científica, es coproducida por el espíritu humano y por una realidad sociocultural. Eso no basta. Es necesario también considerar los sistemas de ideas como realidades de un tipo particular, dotadas de una determinada autonomía "objetiva" en relación a los espíritus que las nutren y se nutren de ellas. Es necesario, pues, ver el mundo de las ideas, no sólo como un producto de la sociedad solamente o un producto del espíritu, sino ver también que el producto tiene, en el dominio complejo, siempre una autonomía relativa. 

Es el famoso problema de la superestructura ideológica que ha atormentado a generaciones de marxistas, porque, evidentemente, el marxismo sumario y cerrado hacía de la superestructura un puro producto de las infraestructuras, pero el marxismo complejo y dialéctico, comenzando por Marx, percibía que una ideología retroactuaba, evidentemente, y jugaba su papel en el proceso histórico. Es necesario ir todavía más lejos. Marx creyó volver a poner la dialéctica sobre los pies subordinando el papel de las ideas. Pero la dialéctica no tiene cabeza ni pies. Es rotativa. A partir del momento en que se toma en serio la idea de recursión organizacional, los productos son necesarios para la producción de los procesos. Las sociedades humanas, las sociedades arcaicas, tienen mitos fundacionales, mitos comunitarios, mitos sobre ancestros comunes, mitos que les explican su situación en el mundo. 

Ahora bien, esas sociedades sólo pueden consumarse en tanto que sociedades humanas si tienen ese ingrediente mitológico; el ingrediente mitológico es tan necesario como el ingrediente material. Puede decirse: no, por supuesto tenemos primeramente necesidad de comer y luego... los mitos, sí, ¡pero no tanto! Los mitos mantienen la comunidad, la identidad común que es un vínculo indispensable para las sociedades humanas. Forman parte de un conjunto en el que cada momento del proceso es capital a la producción del todo. Dicho esto, quiero hablar del grado de autonomía de las ideas y tomaré dos ejemplos extremos; un ejemplo que me ha impresionado siempre resulta evidente en todas las religiones. Los dioses que son creados por las interacciones entre los espíritus de una comunidad de creyentes tienen una existencia plenamente real y plenamente objetiva; ellos no tienen ciertamente la misma objetividad que una mesa, que la caza; pero tienen una objetividad real[/b
en la medida en que se cree en ellos: [b]son seres que viven por los creyentes y éstos operan con sus dioses un comercio, un intercambio de amor pagado con amor. Se les demanda ayuda o protección y, a cambio, se les dona ofrendas. 
Mejor aún: hay muchos cultos en los que los dioses aparecen, y lo que me ha fascinado siempre en la macumba es ese momento en el que llegan los dioses, los espíritus, que se apoderan de tal o cual persona, que bruscamente hablan por la boca del dios, hablan con la voz del dios, es decir que la existencia real de esos dioses es incontestable. Pero esos dioses no existirían sin los humanos que los protegen: ¡he aquí la restricción que es necesario hacer a su existencia! En el límite, esta mesa puede aún existir tras nuestra vida, nuestro aniquilamiento, aunque no tuviese ya la función de mesa; eso sería lo que continuaría su existencia.Pero los dioses morirían todos desde que cesásemos de existir. Entonces, ¡he ahí su tipo de existencia! Del mismo modo, diría que las ideologías existen con mucha fuerza. ¡La idea trivial de que podemos morir por una idea es muy verdadera! Claro está, mantenemos una relación muy equívoca con la ideología. Una ideología, según la visión marxiana, es un instrumento que enmascara intereses particulares bajo ideales universales. Todo esto es verdad; pero la ideología no es solamente un instrumento; ella nos instrumentaliza. Somos poseídos por ella. Somos capaces de actuar por ella. Así pues, existe el problema de la autonomía relativa del mundo de las ideas y el problema de la organización del mundo de las ideas. Hay necesidad de elaborar una ciencia nueva que sería indispensable para el conocimiento del conocimiento. E[b]sa ciencia sería la noología, ciencia de las cosas del espíritu, de las entidades mitológicas y de los sistemas de ideas, entendidos en su organización y su modo de ser específico. Los problemas fundamentales de la organización de los sistemas de ideas no resultan solamente de la lógica, existe también lo que llamo la paradigmatología.