23 février 2010

Au nom du père et du fils

Le complexe d’Œdipe, vedette incontestable de la psychologie de la relation mère-fils, a son complément moins célèbre dans la relation père-fils. Celle-ci participe à la complexité générale de la relation parent-enfant. Cette complexité ne s’atténue aucunement avec le temps et perdure tout au long de la vie (de l’un et de l’autre). En ramenant l’analyse à l’essentiel, on peut dire que le type de relation entre un fils et son père est fondamentalement binaire. Elle relève soit de l’admiration soit de la déception, ce qui n’exclue nullement l’affection. L’admiration du fils pour le père peut s’accompagner chez l’enfant d’un sentiment d’infériorité, qui naît de la crainte d’être incapable de pouvoir égaler l’adulte, l’enfermant dans une impression d’échec permanent pouvant aller jusqu’à des tentations suicidaires. La déception, quant à elle, se traduit généralement par une opposition plus ou moins violente pouvant conduire au rejet de l’autorité. Œdipe n’a pas seulement épousé sa mère, il a aussi tué son père. Cette période d’opposition est répandue et bien connue des parents. Son aspect positif est qu’elle pousse l’enfant à trouver une voie personnelle qui peut être le ferment d’un esprit d’initiative bénéfique atténuant, avec le temps mais sans la supprimer totalement, cette attitude antagoniste. Ainsi, le triste destin du père est d’accepter d’être un objet de déception pour son fils s’il ne veut pas prendre le risque qu’un sentiment d’admiration ne conduise ce dernier à une frustration destructrice. Décevoir, c’est finalement donner à son enfant une chance supplémentaire de s’affirmer et de réussir. Ce qui n’enlève rien aux sentiments d’un père pour son fils ou d’un grand-père pour son petit-fils.

19 février 2010

L’effet papillon industriel

Le paradigme de la fiabilité et de la qualité s’appelait Toyota. Cette entreprise s’est construit sur plusieurs décennies une image prestigieuse ancrée sur le zéro-défaut de ses produits. Toyota est ainsi devenu le symbole japonais de la réussite construite sur l’excellence. Son image est tellement forte que le nationalisme japonais s’en nourrit. Cette entreprise mondialisée est devenue le premier constructeur automobile mondial. Cela signifie une extraordinaire complexité de son organisation. Une organisation qui a fonctionné à merveille jusqu’à ce que Toyota soit obligé d’opérer soudainement un rappel de 8 millions de véhicules à travers le monde. La complexité d’un système augmente factoriellement en fonction du nombre de ses composants. Or, l’automobile est devenue un produit extrêmement complexe par la multiplicité de ses composants et de leurs interactions électroniques et informatiques. À cette complexité intrinsèque du produit s’ajoute celle de l’organisation industrielle, le propriétaire de la marque devenant un simple assembleur de composants en provenance de multiples sous-traitants, répartis dans le monde. La complexité résultante de cette superposition est difficile, sinon impossible, à estimer, mais il est certain qu’elle est extrêmement élevée. Il est alors concevable qu’un petit dysfonctionnement d’un seul composant, qu’il soit industriel ou organisationnel, ait un effet considérable sur le produit fini. On peut même se poser la question de savoir si, au-delà d’un certain niveau de complexité, le système n’adopte pas un comportement chaotique, c’est-à-dire imprévisible. C’est vraisemblablement ce qui s’est passé chez Toyota qui doit, soudainement, faire face à une multitude de dysfonctionnements de ses produits sans qu’il ait été possible d’anticiper le phénomène. Tous les constructeurs automobiles sont soumis à ce risque. Il est alors logique de se demander si l’automobile ne devient pas un produit de plus en plus dangereux au fur et à mesure que les constructeurs multiplient les systèmes intégrés de contrôle et de rétroaction automatiques. Il est déjà symptomatique que les garagistes ne savent plus réparer une automobile, se contentant, dans la majorité des cas, de remplacer les composants. La multiplication des assistants à la conduite permet de pallier les défaillances des conducteurs qui se permettent ainsi des imprudences qu’ils n’auraient sans doute pas commises sans ces composants. De même qu’un nombre de plus en plus important d’élèves ne savent plus exécuter un calcul mental à force d’utilisation de calculettes électroniques, un nombre de plus en plus grand de mauvais conducteurs ne savent plus conduire correctement et se sentent protégés par ces assistants. Ainsi le dysfonctionnement de l’un d’entre eux a nécessairement des conséquences graves car il ne protège plus d’une imprudence de conduite. Au bout du compte, une puissante berline de luxe peut être potentiellement plus dangereuse qu’une vieille 2CV !!

16 février 2010

Ça chauffe ?

Le changement climatique est une certitude pour la très grande majorité des scientifiques. Le grand public reste pourtant assez indifférent à ce phénomène pour la seule raison que ses conséquences sont, en principe, à long terme et que la réflexion cède le pas à l’égoïsme. Comme toujours, l’avenir des générations futures ne préoccupe pas beaucoup la génération actuelle. Pour établir leurs conclusions, les scientifiques n’utilisent pas les prédictions de Nostradamus mais des modèles mathématiques et informatiques qui leur permettent de simuler l’évolution d’un certain nombre de paramètres décrivant le monde qui nous entoure. Ils n’ont pas d’autres moyens que d’utiliser « les lois de la Nature » pour établir leurs modèles, lois que les physiciens traquent depuis des siècles. Deux questions se posent alors. La première est l’exhaustivité des paramètres pris en compte. La nature est un système d’une complexité considérable. Le cycle de carbone, le cycle de l’eau, les échanges entre l’atmosphère et les océans, la dynamique des vents, les lois de la chimie et de la diffusion des gaz, la thermodynamique, la rhéologie et le comportement des glaciers et des calottes glaciaires du Groenland et de l’Antarctique, l’effet albédo, la dynamique des fluides, l’effet de la couverture nuageuse et de la présence de particules de suie dans l’atmosphère, la précession de l’orbite terrestre, l’inclinaison de l’axe de rotation de la Terre, l’activité solaire, la circulation thermoaline, etc …, font partie des lois et phénomènes dont il faut tenir compte. À ceux-ci s’ajoutent les conséquences des comportements humains, comme l’activité industrielle, la déforestation, les transports, la déprédation de la diversité biologique, etc … Il n’est, hélas, pas douteux que ces comportements perdurent dans l’avenir car les hommes se plaignent toujours des conséquences des événements dont ils chérissent les causes. La seconde question qui se pose tient dans le fait que les modèles sont de plus en plus sophistiqués et que leur complexité oblige à des simplifications de représentation. Parmi ces simplifications, la plus importante est, peut-être, l’hypothèse de la progressivité régulière des phénomènes dans le temps, sans rupture brutale, qui conduit à décrire une évolution lente de l’état du monde. Là est le talon d’Achille de ces prévisions. En effet, depuis la fin du XIXème siècle et les travaux d’Henri Poincaré sur les systèmes dynamiques à N corps et leur sensibilité aux conditions initiales, on sait que les systèmes complexes peuvent présenter de brusques changements de comportement imprévisibles. En 1961, les travaux de Lorenz sur la météo et en 1963 sur les attracteurs étranges, les études de Mitchell Feigenbaum en 1974, ont mis en évidence que certains systèmes dynamiques pouvaient basculer de façon aléatoire entre des comportements différents et que l’horizon de leur prévisibilité est très court. Le terme de « chaos », utilisé pour décrire ces phénomènes, a été introduit en 1975 par les deux mathématiciens Tien-Yien Li et James A. Yorke. Ces études ont été popularisées sous le nom évocateur et trompeur d’« effet papillon ». Ce n’est pourtant que depuis peu de temps que le comportement chaotique des phénomènes naturels est envisagé et pris en compte par les scientifiques, que ce soit les climatologues ou les glaciologues. Aujourd’hui, les méthodes de simulation prennent en compte la théorie du chaos pour tenter de prévoir ce qui risque d’arriver aux calottes glaciaires. Et la surprise est grande et assez effrayante. En effet, des phénomènes, impensables jusqu’à des temps récents, se produisent en ce moment au sein de ces calottes groenlandaise et antarctique qui produisent une accélération soudaine de la déstabilisation des grands glaciers, rendant possible, sinon probable, le déversement dans l’océan de quantités phénoménales d’eau douce. Cela conduit à une augmentation du niveau des mers, non pas de quelques centimètres par siècle, mais de plusieurs mètres dans un horizon de temps d’une dizaine d’années ! Il n’est pas certain que ces phénomènes chaotiques se produisent, mais cela reste possible. Comme un avertissement, on a vu en Mars 2002 la plateforme Larsen B de l’Antarctique s’effondrer en quelques jours, structure de 200 mètres d’épaisseur et plus vaste que le Luxembourg qui était restée attachée à la péninsule pendant plusieurs milliers d’années. Le fait que le GIEC reconnaisse aujourd’hui que ses premières prévisions sur le recul des glaciers de l’Himalaya étaient erronées et trop pessimistes ne fait que démontrer la grande incertitude régnant sur la représentativité des modèles utilisés et sur la rapidité des changements à venir. Les systèmes chaotiques se caractérisent par un basculement imprévisible entre deux comportements, ou davantage, complètement différents et une sensibilité extrême à des variations infimes de certains paramètres caractéristiques. C’est ainsi que le réchauffement climatique peut, très rapidement, transformer les puits de carbone que représentent les forêts tropicales, les zones marécageuses et le permafrost en sources de gaz à effet de serre (dioxyde de carbone et méthane), aggravant l’effet de serre et provoquant un emballement du réchauffement. Il en est de même pour les océans, dans lesquels le gaz carbonique et l’eau produisent de l’acide carbonique dont la décomposition acidifie le milieu et qui, par un processus complexe mettant en jeu les sels de calcium et de silicium apportés par les sédiments continentaux, diminue la capacité de l’océan à absorber le gaz carbonique et le pousse, au contraire, à le rejeter. Le puits de carbone le plus important de la planète, outre le fait que l’acidification détruit la vie halieutique, peut ainsi devenir une source de gaz à effet de serre. Le plus grave est que les nations sont gouvernées par des politiques qui ne sont préoccupés que par le très court terme de leur maintien au pouvoir, ce qui les rend réfractaires à toute action engageant le moyen et long terme. Copenhague en est le meilleur exemple. Nous avons donc une chance non négligeable d’aller, les yeux fermés, vers des ruptures climatiques puis sociétales extrêmement graves.

13 février 2010

L’Europe malade de la mondialisation

La Grèce a menti. Elle a contourné les critères européens de gestion. Certes, ce n’est pas le seul pays à avoir joyeusement piétiné les critères de Maastricht. Mais c’est le seul pays à avoir dissimulé ce fait en présentant des comptes truqués. Comme la vérité finit toujours par être connue et que la réalité des faits s’impose, ce pays est, aujourd’hui, menacé de faillite. De la même façon qu’une entreprise en difficulté attire les rapaces, les « hedge funds » se précipitent en spéculant sur la faillite de la Grèce. Si ces rapaces de la finance gagnent la partie, ils joueront alors contre les autres pays les plus exposés, c’est-à-dire (dans l’ordre) l’Espagne, le Portugal, l’Irlande, la France. Or, si la Grèce ne pèse pas beaucoup dans l’économie européenne, il n’en est pas de même pour l’Espagne. Et si ce pays se trouve menacé à son tour par la spéculation mondiale, alors, c’est l’Europe tout entière, et plus particulièrement la zone Euro, qui se trouvera menacée d’éclatement. La situation est donc grave. Et pourtant, les dirigeants européens, réunis soi-disant pour trouver les moyens de stopper ce danger, n’ont pas eu le courage d’annoncer des mesures concrètes propres à décourager les spéculateurs. Il eut été pourtant suffisant qu’ils se portent garants des emprunts que la Grèce va devoir lever pour faire face à ses obligations. Ce qu’ils ont fait, chacun de leur côté, pour les banques de leur pays, ils n’ont pas osé le faire ensemble pour un pays européen. Une fois de plus, les égoïsmes nationaux et les préoccupations locales ont été prédominants. Le « gouvernement économique » de l’Europe est renvoyé aux calendes grecques (c’est le cas de le dire !). L’Europe reste sans moyens devant la mondialisation qui s’impose à elle sans qu’elle ne puisse en maîtriser les effets. Avec des gouvernements nationaux aveuglés par leurs préoccupations électorales, une Commission européenne qui se préoccupe des OGM au lieu de s’occuper de la crise la plus grave que l’Europe ait connu depuis qu’elle existe, un soi-disant Président de l’Europe qui brille par son absence, l’avenir est sombre. L’égoïsme n’est certes pas une spécificité européenne. Copenhague ou le simulacre de G20 ont bien montré que « le chacun pour soi » reste la règle de tous les pays. Cela laisse le champ libre et un bel avenir à tous les fieffés coquins, les trafiquants, les mafias, les spéculateurs du monde entier.
On a cru Obama thaumaturge, il n’est qu’un Président américain. Oui, l’avenir est sombre.

08 février 2010

Le niqab

Il n’y a pas de burka en France. Il n’y a que des femmes entièrement voilées par le niqab qui ne laisse apercevoir que le regard. Ce phénomène, nouveau et encore rare, sème un mélange de gêne et de confusion dans les esprits. Cette confusion vient du fait que l’on ne sait trop si cette pratique est à condamner au nom de la dignité de la femme ou à accepter au nom de la liberté et du rejet d’une soi-disant xénophobie. Or, il n’y a que deux cas possibles : ou bien ce voile est imposé à la femme qui le porte ou bien il s’agit d’une décision et d’un choix personnels. Si le niqab est une contrainte imposée par un tiers, que se soit un imam ou un conjoint, alors il y a nécessairement une atteinte insupportable à la liberté de l’individu et à la dignité féminine. Si le voile est porté volontairement, quelle que soit la raison invoquée, il transforme la femme en voyeur qui regarde par le trou de la serrure afin de voir sans être vu. Au nom d’une volonté de s’effacer du monde, la femme devient ostensiblement visible. Cette ostentation est une provocation. Le niqab est un véritable signal, attirant tous les regards et toutes les interrogations. Il n’est, en aucune façon, une obligation du Coran, mais une contrainte inventée par des hommes pour des motifs que l’on peut soupçonner emprunts de machisme primaire (« cache ce visage que je ne saurais voir, car il est un vrai scandale »). Quelle qu’en soit la raison, se cacher pour regarder le monde est une injure à tous ceux à qui s’adresse la femme voilée du niqab. On entend parfois l’argument évoquant l’abbé Pierre, revêtu de son habit de prêtre au sein du Parlement, pour essayer de justifier le port du voile intégral en tout lieu. Ce fût une erreur de ne pas imposer l’habit civil à l’abbé Pierre au sein du Parlement et cette erreur ne permet pas de justifier l’acceptation du niqab. Les politiques ont le devoir de rechercher une réponse, le citoyen a le droit de se détourner de ces femmes en refusant tout échange.

05 février 2010

L’intelligence artificielle, une utopie ?

Définir l’intelligence humaine n’est pas facile. En effet, l’intelligence n’est pas seulement l'ensemble des facultés mentales permettant de comprendre les choses et les faits, c’est aussi la capacité de découvrir les relations entre ces faits et d'agir de manière adaptée grâce à la compréhension des situations. L'intelligence est l'ensemble des fonctions mentales mobilisées pour l'analyse, la compréhension, et l'organisation du réel en concepts, nécessaires à l'homme pour mémoriser (apprendre), analyser (comprendre) et communiquer (partager). On peut aussi définir l'intelligence comme étant la capacité à utiliser le raisonnement causal, l'imagination, la prospection et la flexibilité et qui serait ainsi à la base de la faculté d'adaptation.
Depuis plusieurs décennies et avec le développement rapide de l’informatique, l’homme, se prenant pour un démiurge, a cherché à reproduire artificiellement le fonctionnement de l’intelligence. L’intelligence artificielle a été définie par l’un de ses créateurs, Marvin Lee Minsky, comme la construction de programmes informatiques qui exécutent des tâches qui sont habituellement accomplies par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique. On relève donc, dans cette définition, l’aspect « artificiel » dû à l'usage des ordinateurs ou de processus électroniques élaborés et l’aspect « intelligence » associé à l’imitation du comportement humain. Cette imitation trouve son application dans le raisonnement, par exemple dans les jeux ou la pratique de mathématiques, dans la compréhension des langues naturelles, dans la perception : visuelle (interprétation des images et des scènes), auditive (compréhension du langage parlé) ou par d'autres capteurs comme ceux qui sont utilisés dans la commande des robots.
En physique fondamentale, on distingue les principes anthropiques fort et faible pour expliquer pourquoi le monde est comme il est. De même, on fait la différence entre l’IA forte et l’IA faible. Actuellement, le concept d’intelligence artificielle forte fait référence à une machine capable non seulement de produire un comportement intelligent, mais de simuler une conscience de soi ainsi qu’une compréhension de ses propres raisonnements (boucle de feed-back) et, donc, dotée d’une capacité d’apprentissage autonome. En se fondant sur le constat que la conscience a un support biologique et donc matériel, certains scientifiques ne voient pas d’obstacle de principe à créer un jour une intelligence consciente sur un support matériel autre que biologique. Selon les tenants de l'IA forte, si à l'heure actuelle il n'y a pas d'ordinateurs ou de robots aussi intelligents que l'être humain, ce n'est qu’un problème de conception. Un ordinateur typique de 1970 effectuait 10 puissance 7 opérations logiques par seconde, c’est-à-dire une sorte d’intermédiaire entre une balance de Roberval (1 opération logique par seconde) et le cerveau humain (environ 2 x 10 puissance 14 opérations logiques par seconde). En 2009, un microprocesseur type traite 64 bits en parallèle (128 dans le cas de machines à double cœur) à une vitesse de 2 GHz, ce qui lui permet en principe d’effectuer 10 puissance 11 opérations logiques par seconde. Il n’existe plus qu’un facteur 3 pour atteindre les performances du cerveau humain. Les ordinateurs quantiques permettront peut-être de franchir cette différence. C’est la position défendue notamment par Roger Penrose. Des algorithmes quantiques sont théoriquement capables de mener à bien des calculs hors de l'atteinte pratique des calculateurs conventionnels. Au-delà de la rapidité, le fait que l'on puisse envisager des systèmes quantiques en mesure de calculer des fonctions dites non calculables (au sens donné par Turing) ouvre des possibilités qui sont fondamentalement interdites aux machines actuelles. La notion d’intelligence artificielle faible, quant à elle, constitue une approche pragmatique d’ingénieur qui cherche à construire des systèmes de plus en plus autonomes (pour réduire le coût de leur supervision), des algorithmes capables de résoudre des problèmes d’une certaine classe, comme ceux rencontrés en cybernétique. Ces algorithmes sont souvent construits à partir de moteurs d’inférences tournant sur une base de faits et une base de règles. Ces bases mémorisent, sous des formes diverses, le savoir des experts, ce qui nécessite la participation volontaire de ceux-ci pour formaliser et livrer leurs connaissances et leur expertise. Ce partage ne va pas de soi et soulève souvent des difficultés, non seulement de modélisation mais également de résistance, l’expert ayant la sensation d’une dépossession et d’une perte de pouvoir. De plus, lorsque l’intelligence artificielle s’attache à décrire le fonctionnement de systèmes complexes à toutes les échelles, cette description impose une transversalité du savoir, ce qui est encore aujourd’hui assez contradictoire avec la parcellisation et la « ghettoïsation » des disciplines scientifiques. Internet pourrait peut-être devenir le catalyseur de la mise en commun des savoirs scientifiques, aboutissant à cette transversalité nécessaire dans la modélisation des systèmes ouverts et complexes.
Malgré tout, il reste extrêmement douteux que l’IA soit capable de reproduire un jour totalement le fonctionnement de l’intelligence, car celle-ci possède des qualités qui semblent hors de portée de tout artéfact, l’intuition et les émotions par exemple. Jamais une machine ne sera capable de renoncer à une décision parce qu’elle la ressent comme immorale. Jamais une machine ne prendra une décision par vengeance. HAL 9000 reste une utopie. Je crois qu’il ne faut pas s’en plaindre.

02 février 2010

Misère

Il y a trois types de mensonges : le mensonge, le sacré mensonge (ou le mensonge sacré) et les statistiques (Disraeli). Dans une société qui se délite, les statistiques sont devenues l’arme qui permet aux politiques de cacher la vérité ou de l’ignorer. Aujourd’hui, la France compte huit millions de personnes vivant sous le seuil de pauvreté. C’est ce que disent les statistiques. Ce dont elles ne parlent pas, ce sont les 600.000 enfants qui vivent dans des conditions révoltantes, obligés de dormir à tour de rôle dans un logement qui s’apparente davantage à un placard et dans lequel s’entassent 5 ou 6 personnes, ne trouvant pour travailler que le couvercle de la machine à laver ou le carrelage de la cuisine. Pour ces enfants, le concept d’égalité des chances est vide de sens. Les statistiques ne nous disent pas qu’il y a environ 800.000 personnes, dont 160.000 enfants et adolescents, qui campent sous les ponts, dans une tente voire sous une simple toile tendue entre deux arbres ou qui s’entassent dans les quelques structures d’accueil trop peu nombreuses et où la violence n’est pas absente. 100.000 d’entre eux vivent en permanence dans un camping. Allez vous promener dans le Bois de Vincennes et vous aurez l’impression de traverser un véritable village de toile. À ces sans-abri, s’ajoutent les 100.000 personnes qui vivent dans leur véhicule, voiture ou camion, tout en ayant un travail sous-payé qui leur interdit de trouver un logement à louer par ostracisme des loueurs. Aujourd’hui, la société se débarrasse des pauvres en les effaçant, non seulement des chiffres, mais en les rendant transparents en passant à côté d’eux sans les voir. Elle se débarrasse également des vieux en les parquant dans les maisons spécialisées. Ne rien voir, ne rien entendre, n’en pas parler. Cette soi-disant sagesse n’est qu’un monstrueux égoïsme et la démonstration que la société perd, non seulement ses moyens, mais également ses valeurs.