Behind the tree of AI conscience, the forest of political and social issues

The affair shook the milieu of artificial intelligence, début juin : Blake Lemoine, a Google engineer, declared to the Washington Post that the LaMDA language recognition model was probably conscient (it has been licensed since). Très vite, des experts du domaine – et Google lui même – se sont élevé contre ce postulate. LaMDA est un système created pour mimer des conversations aussi reales que possibles, mais cela ne signifie pas qu’il comprend ce quil dit. Au contraire, argumentent plusieurs scientifiques, soulever sans cesse le débat de la conscience des AI détourne l’attention des questions que ces technologies posent de manière plus urgente.

La vieille obsession de l’intelligence des robots… Argument marketing ?

L’hypothèse d’une conscience de nos technologies n’a rien de neuf – elle traîne dans nos imaginaires depuis le Frankenstein de Mary Shelley et le succès croissant de la science-fiction. Imiter le raisonnement humain est aussi au foundation du test de Turing, experiment visant à estimaire si une machine parvient à se faire passer pour un homme aupres d’un observateur extérieur. L’un des pères de l’informatique moderne, John von Neumann, a de son côté jeté les bases des architectures informatiques modernes en les calquant sur le fonctionnée du cerveau.

“Encore aujourd’hui, beaucoup de gens financent la recherche et travailend dans cette direction”, pointe la professeur en artificial intelligence at LIMSI/CNRS Laurence Devillers. Et de citer Elon Musk, fondateur d’Open AI, Yann LeCun, responsable de la recherche en AI chez Meta, lorsqu’il évoque la possibilité que certaines machines resentent des emotions, Blaise Agüera y Arcas, vice-president chez Google, lorsqu’ il describes LaMDA comme un cortex artificiel… ” Qu’un ingénieur declares LaMDA conscient a un intérêt marketing, explique la chercheuse. This places Google in a competitive universe. »

Quand l’empathie nous trompe

In fact, LaMDA is neither the first robot capable of eliciting empathy, nor the first algorithmic model capable of producing a credible written conversation. In the 1960s, computer scientist Joseph Weizenbaum created Eliza, a program simulating the responses of a psychotherapist. La machine a si bien fonctionné que les gens lui dévoilaient des details intimates. The “Eliza effect” is now called the human propensity to attribute more faculties to a technical system that one cannot possess. Closer to LaMDA, the large language recognition model GPT-3, available since 2020, is also capable of passing itself off in a credible manner for a journalist, a squirrel or William Shakespeare resurrected.

Mais que des utilisers, experts or non, puissens prendre ces résultats pour de la conscience, voilà qui frustre un nombre croissant de scientifiques. C’est un abus de nos facultés d’empathie, estime la linguiste Emily Bender, celles-là mêmes qui font nous projecter un semblant d’humanité dans des objets inanimés. LaMDA, rappelle Laurence Devillers, is “fundamentally inhuman”: the model was trained on 1,560 billion words, it has no body, no history, it produces its answers according to probability calculations…

Artificial intelligence is a problem of social justice

Peu de temps avant l’affaire Lemoine, la doctorante en philosophie Giada Pistilli declared qu’elle ne s’exprimerait plus sur l’éventuelle conscience des machines : cela détourne l’attention des problématiques éthiques et sociales déjà existinges. In this, she follows the line that Timnit Gebru and Margaret Mitchell trace, two bridges of the research in ethics of AI licensed by Google… to have highlighted the social and environmental risks that pose the large models of language. “C’est une question de pouvoir, analyzes Raziye Buse Çetin, chercheuse indépendante en politique de l’IA. Est-ce qu’on met en lumière et finance la quête d’une machine que l’on rêve de rendre consciente, ou plouteau les tentatives de corriger les biases sociaux, sexistes ou racistes des algorithms déjà présents dans notre quotidien? »

Les problèmes éthiques des algorithms qui nous entourent au quotidien sont innumbrables : sur quelles données les entraîne-t-on ? How do you correct their errors? Que fait-on des texts que les utilisers envoient aux discussion robots construits grâce à des modèles similaires à LaMDA ? Aux États Unis, une association d’écoute de personnes suicidaires a utilisés les réponses received de ces personnes en grande vulnerabilité pour entrainer des technologies commerciales. « Est-ce que c’est acceptable ? We need to reflect on the manner in which the data are used today, on the value of our consent in the face of algorithms that we sometimes do not even suspect are present, to consider their aggregated effects since the algorithms are already very used in education, recruitment, credit scores… »

Regulation and education

The subject of AI conscience prevents us from deepening the discussions “sur les technical limitations of these technologies, les discriminations qu elles provoquent, leurs effets sur l’environnement, les biases présents dans les données”, liste Tiphaine Viard, Maitresse de conférence at Telecom Paris. En coulisse, these debates are agitating the scientific and legislative milieus for several years already, because, according to the researcher, “the stakes are similar to those that have passed for social networks.” ” Les grandes entreprises de la tech ont longtemps dit qu’elles n’avaient pas besoin d’être régulées, qu’elles se débrouilleraient : ” Result, quinze ans plus tard, on se dit qu’il ya besoin d’un regard politique et citoyen. »

Quel cadre, alors, pour éviter que les algorithms ne fassent du tort à la société? L’explicabilité et la transparence des modèles sont deux des axes discutés, notably pour permettre une réglementation européenne de l’IA. « Et ce sont de bonnes pistes, continues Tiphaine Viard, mais à quoi est-ce que ça doit ressembler? Qu’est-ce qu’une bonne explication ? Quels sont les points de recourses possibles si celle-ci montre qu’il ya eu discrimination? » Il n’existe, pour le moment, aucune réponse fixe.

L’autre grand sujet, emphasizes Laurence Devillers, est celui de l’éducation. “Il faut former très tôt aux enjeux que posent ces objets socio-techniques”, teach the code, faire comprendre le fonctionnement des algorithms, permettre de monter en compétences… Autrement, face à des machines construit pour imiter l’main, “les utilisers risquent d’être manipulés. ” Education, continues the computer scientist, will be the best way to allow each person to think about how to adapt to these technologies, to the frictions that they want to implement, to their barriers, to their acceptability. ” Et de pousser pour la construction d’un ecosystème éthique, ” où les industriels ne soient pas chargés de leur propre régulation. »

Leave a Comment