Beaucoup d’interrogations et de questionnements éthico-philosophiques autour des avancées de l’intelligence artificielle. Les expériences de Boston Dynamics nous renvoient à de vieilles scènes SF des années 1990. Passer du grille pain au robot auxiliaire de vie soulève de réelles problématiques, au moment où l’ordinateur super-calculateur est voué à devenir une « entité » apprenante, à un stade où la prospective rêve du robot organique…
Du grille pain au Terminator
D’abord qu’est-ce que l’intelligence artificielle (IA) ?
Ici, je ne vous parle de l’intelligence artificielle digitale et espionne, que l’on met par exemple au point pour mieux traquer l’utilisateur et personnaliser la dimension commerciale du medium dans l’interaction avec un écran. Ou de l’intelligence artificielle que l’on développe pour vous aider à faire de meilleurs choix. Ces IA là, on les connaît un peu. En temps qu’utilisateur, et peut-être en tant que concepteur… Cette IA de bas étage, elle n’est pas toujours très smart. Évolutions digitales oblige, elle pose des questions de déontologie à iafactory. En un sens, pour en juger, tout dépend de ce que l’on en fait… C’est comme tout…
Donc, l’intelligence artificielle ?
Un robot doté de capacité de déplacements, plus ou moins sophistiqués ? Assurément pas. C’est une notion complexe aux contours flous.
L’intelligence artificielle est le mythe de la reproduction de l’intelligence humaine sous une forme différente, d’abord électronique, de plus en plus physico-chimique, lorsque ce n’est pas biologique, tout simplement. L’intelligence en gros, c’est la compréhension du monde qui nous entoure (connaissance), de ce qui se passe en nous (conscience), la capacité de mobiliser l’apprentissage pour agir (penser), les facultés d’adaptation… Mais, n’étant que philosophe de comptoir, je stoppe ici tout développement de cette notion.
Alors, parlons IA.
Un robot peut-il apprendre ? Faudrait-il plutôt dire stocker ? De plus en plus.
Un robot peut-il agir ? Faudrait-il dire réagir ? De plus en plus.
Un robot peut-il apprendre pour agir ? Faudrait-il dire stocker, connecter, appliquer ? On s’y dirige. Et « ça pose question ».
Un robot peut-il s’adapter ? On va le programmer pour.
Mais un robot peut-il penser ? Mhh, bof. Connecter des choses peut-être, mais sans conscience.
Et donc, un robot peut-il avoir une conscience propre ? Pas encore en 2016, du moins à ma connaissance. En tout cas souhaitons que non, si l’on en juge l’animation ci-dessous qui met en relief les tests de boston dynamics sur ses robots…
IA forte, IA faible
Il y a l’IA qui joue en ligue des champions. Et puis il y a l’IA du CFA, voir du district…
Gagner au jeopardy, aux échecs, au jeu de go, super ! Certes c’est une grande expérience de calcul. Félicitations aux programmeurs et concepteurs. Mais pour l’heure on n’a pas encore vu un « robot » sauter de joie après une victoire, se délecter d’un met, exprimer une réelle « émotion », ressentie suite à une explosion physico-chimique dans l’organisme.
Les experts parlent d’IA faible pour qualifier une intelligence artificielle, disons, basique, du mouvement, du stimuli-réponse (« va chercher ! »). L’IA faible on y est. La voiture autonome. Le drone gentil (il va aider mamie à prendre ses médicaments, il va jouer avec bébé pendant qu’on prépare le repas). Le drone méchant (il déclenche une salve de tir kalachnikov pour une avancée tactique).
Et l’IA forte, tous les grands laboratoires et chercheurs y travaillent. C’est celle-ci qui inquiète. Que l’on qualifie de potentiellement « hostile » à horizon plus ou moins lointain. Pourquoi ? Car cette intelligence artificielle (notion abstraite j’en conviens), à vocation à devenir autonome, auto-apprenante, à étoffer ses connaissances, à connecter les idées, à améliorer ses possibilités d’actions, etc. Et c’est ça qui est inquiétant : les instincts humains ne vont pas toujours de paires avec la bride (oui on bride les mobylettes et d’autres choses…), si l’on considère les enjeux économiques (profit), militaires (domination), politiques (pouvoir).
L’intelligence artificielle frappe à la porte, et elle pose des questions de sociétés complexes.
Le robot pas très malin est déjà là.
Le drone de transport est en phase de mise au point.
Le réseau continue à collecter les données.
Et on travaille à ce que ces entités apprennent d’elles mêmes désormais. C’est le concept clé du « robot auto-apprenant », des « réseaux de neurones »…
On en arriverait donc à des « entités », dotées de fortes capacités de calculs, potentiellement augmentées par la dimension connectée, capables de collecter des données et de les partager (relier à un réseau / noyau), vraisemblablement en mesure d’améliorer leur programme et d’en emmagasiner de nouveaux (suite à analyse des données) avec des facultés de déplacements plus ou moins avancés. Bref, vous voyez bien qu’on y est, puisqu’il suffit de s’arrêter 5 minutes et de lever la tête pour voir converger, et concentrer progressivement toutes ces avancées au sein d’un seul et même artefact, pour le meilleur et pour le pire. Nous en sommes encore aux pithécanthropes avec nos souris et nos écrans, même si l’on dicte déjà nos textes corrigés en temps réel par des programmes, mais on voit bien ce qui se trame derrière tout ça.
Un robot pour s’occuper de nos aïeux ? Un robot pour occuper les enfants ? Un robot avec « une IA forte », euh, vous voulez dire un truc qui peut apprendre ? Un truc qui peut décider ? Donc désobéir ? Se rebeller ? Un truc qui peut BUGGER ? Un truc qui collecte des données ? Un espion ? Aux mains d’une société à but lucratif ? Dans un monde pacifique ? Ah oui ce genre de robots, dans ce genre de sociétés ! Génial :)…
Alors, avec l’intelligence artificielle, l’humanité est-elle entrain de créer Frankenstein ?
Qu’en pensez vous ?
Pour ma part, j’observe cela d’un oeil inquiet. Sans être hostile au progrès, on s’éloigne de plus en plus de notre humanité et quoi de plus logique que de substituer l’homme par le robot (on le faisait déjà dans les usines, alors pourquoi ne pas le faire dans la société ?).
Deux vidéos annexes, l’une autour du pauvre robot ATLAS chahuté, et l’autre autour des réflexions du débat orchestré par le sympathique Frédéric TADDEI.
Ah l’IA, c’était mieux avant :).