Politique Internationale

La conscience dans l’intelligence artificielle : aperçu de la science … – Developpez.com



La question de savoir si les systmes d’IA actuels ou venir pourraient tre conscients est un sujet d’intrt scientifique qui proccupe de plus en plus le public. Le prsent rapport prconise et illustre une approche rigoureuse et empirique de la conscience de l’IA : il s’agit d’valuer en dtail les systmes d’IA existants la lumire des thories neuroscientifiques de la conscience les mieux tayes. Les chercheurs de plusieurs universits donc lUniversit de Toulouse, lUniversit d’Oxford, lUniversit de Montral, lUniversit du Sussex examinent plusieurs thories scientifiques importantes de la conscience, notamment la thorie du traitement rcurrent, la thorie de l’espace de travail global, les thories d’ordre suprieur, le traitement prdictif et la thorie des schmas d’attention.

De ces thories, les chercheurs tirent des proprits indicatrices de la conscience, lucides en termes informatiques qui permettent d’valuer les systmes d’intelligence artificielle en fonction de ces proprits. Nous utilisons ces proprits indicatives pour valuer plusieurs systmes d’IA rcents, et nous discutons de la manire dont les systmes futurs pourraient les mettre en uvre. Lanalyse suggre qu’aucun systme d’IA actuel n’est conscient, mais aussi qu’il n’y a pas d’obstacles techniques vidents la construction de systmes d’IA qui satisfont ces indicateurs.

Au cours de la dernire dcennie, les progrs spectaculaires de l’intelligence artificielle (IA) ont raviv l’intrt pour des questions profondes et anciennes sur l’IA, notamment la question de savoir si les systmes d’IA pourraient tre conscients. La question de savoir si les systmes d’IA pourraient tre conscients est de plus en plus pressante. Les progrs dans le domaine de l’IA ont t tonnamment rapides et les principaux chercheurs s’inspirent des fonctions associes la conscience dans le cerveau humain pour tenter d’amliorer les capacits de l’IA.

Le rapport des chercheurs plaide en faveur d’une approche rigoureuse et empirique de la conscience de l’IA, en valuant les systmes d’IA existants dans le dtail, la lumire des thories neuroscientifiques de la conscience les mieux tayes. Les chercheurs ont tudi plusieurs grandes thories scientifiques de la conscience, notamment la thorie du traitement rcurrent, la thorie de l’espace de travail global, les thories de l’ordre suprieur, le traitement prdictif et la thorie du schma d’attention.

De ces thories dcoulent des proprits indicatrices de la conscience, lucides en termes informatiques, qui permettent d’valuer les systmes d’IA en fonction de ces proprits. Les chercheurs utilisent ces proprits indicatrices pour valuer plusieurs systmes d’IA rcents. Lanalyse des chercheurs suggre qu’aucun systme d’IA actuel n’est conscient, mais qu’il n’y a pas d’obstacles techniques vidents la construction de systmes d’IA satisfaisant ces indicateurs.

  • Premirement, les chercheurs adoptent comme hypothse de travail le fonctionnalisme informatique, c’est–dire la thse selon laquelle il est ncessaire et suffisant d’effectuer des calculs de la bonne nature pour avoir une conscience. Nous adoptons cette hypothse pour des raisons pragmatiques : contrairement aux points de vue rivaux, elle implique que la conscience dans l’IA est possible en principe et que l’tude du fonctionnement des systmes d’IA est pertinente pour dterminer s’ils sont susceptibles d’tre conscients ;
  • Deuximement, les chercheurs affirment que les thories neuroscientifiques de la conscience bnficient d’un soutien empirique significatif et peuvent aider valuer la conscience dans l’IA. Ces thories visent identifier les fonctions qui sont ncessaires et suffisantes pour la conscience chez les humains, et le fonctionnalisme informatique implique que des fonctions similaires seraient suffisantes pour la conscience dans l’IA ;
  • Troisimement, les chercheurs pensent que l’approche fonde sur la thorie de la force est la plus approprie pour tudier la conscience dans l’IA. Il s’agit d’examiner si les systmes d’IA excutent des fonctions similaires celles que les thories scientifiques associent la conscience, puis d’attribuer des crdits sur la base (a) de la similarit des fonctions, (b) de la force des preuves en faveur des thories en question et (c) de l’exprience en matire de fonctionnalisme computationnel.

La principale alternative cette approche consiste tester la conscience par le comportement des souris, mais cette mthode n’est pas fiable car les systmes d’IA peuvent tre entrans imiter des comportements humains tout en fonctionnant de manire trs diffrente. La conscience tant un sujet philosophiquement complexe, difficile dfinir et tudier empiriquement, les opinions des experts sur la conscience – en gnral, et sur les systmes d’IA – sont trs divergentes. Il existe des thories scientifiques de la conscience qui bnficient d’un soutien empirique significatif et qui sont compatibles avec un large ventail de points de vue sur la mtaphysique de la conscience.

Bien que ces thories soient largement fondes sur la recherche sur les humains, elles font des dclarations sur les proprits et les fonctions associes la conscience qui sont applicables aux systmes d’IA. Les chercheurs affirment que l’utilisation des outils offerts par ces thories est la meilleure mthode actuellement disponible pour valuer si les systmes d’IA sont susceptibles d’tre conscients.

Fonctionnalisme informatique

Selon le fonctionnalisme de la conscience, il est ncessaire et suffisant pour qu’un systme soit conscient d’avoir une certaine organisation fonctionnelle, c’est–dire de pouvoir centrer une certaine gamme d’tats, qui ont une certaine relation causale les uns avec les autres et avec l’environnement. Le fonctionnalisme informatique est une variante du fonctionnalisme qui affirme en outre que l’organisation fonctionnelle en question est informatique.

Les systmes qui effectuent des calculs traitent l’information en mettant en uvre des algorithmes ; le fonctionnalisme computationnel affirme qu’il est suffisant pour que l’organisme soit conscient qu’il joue un rle du bon type dans la mise en uvre du bon type d’algorithme. Pour qu’un systme mette en uvre un algorithme particulier, il doit avoir un ensemble de caractristiques un certain niveau d’abstraction : en particulier, une gamme d’tats porteurs d’information possibles et une disposition particulire effectuer des transitions entre ces tats.

L’algorithme mis en uvre par un systme est une spcification abstraite des transitions entre les tats, y compris les entres et les sorties, qu’il est dispos effectuer. Par exemple, une calculatrice de poche met en uvre un algorithme particulier pour l’arithmtique parce qu’elle gnre des transitions entre les touches et les rsultats l’cran en passant par des squences particulires d’tats internes.

Un point important du fonctionnalisme informatique est donc que le caractre conscient ou non d’un systme dpend de caractristiques plus abstraites que les dtails les plus bas de sa composition physique. Le substrat matriel d’un systme n’a pas d’importance pour la conscience, sauf dans la mesure o ce substrat affecte les algorithmes que le systme met en uvre. Cela signifie que la conscience est, en principe, multiralisable : elle peut exister dans de multiples substrats, et pas seulement dans les cerveaux biologiques.

Cela dit, le fonctionnalisme computationnel n’implique pas qu’un substrat quelconque puisse tre utilis pour construire un systme conscient. Comme l’a dit Micheland Lau, les Suisses ne peuvent pas mettre en uvre les calculs pertinents . Les chercheurs supposent donc que les ordinateurs tels que nous les connaissons sont en principe capables de mettre en uvre des algorithmes suffisants pour la conscience, mais ils ne prtendent pas que c’est une certitude.

Il est galement important de noter que les systmes qui calculent la mme fonction mathmatique peuvent agir en mettant en uvre des algorithmes diffrents, car le fonctionnalisme informatique ne signifie pas que les systmes qui font quelque chose , c’est–dire qui calculent la mme fonction d’entre-sortie, sont ncessairement semblables la conscience.

En outre, il est conforme au fonctionnalisme informatique que la conscience puisse dpendre de l’excution d’oprations sur des tats avec des formats de reprsentation spcifiques, tels que la reprsentation analogique. En ce qui concerne les niveaux d’analyse, l’ide est que la conscience dpend de ce qui se passe dans le systme au niveau algorithmique et reprsentationnel, par opposition au niveau de la mise en uvre ou au niveau “informatique” (entre-sortie) plus abstrait.

Les chercheurs ont adopt le fonctionnalisme informatique comme hypothse de travail principalement pour des raisons pragmatiques. La majorit des grandes thories scientifiques de la conscience peuvent tre interprtes de manire informatique, c’est–dire en faisant des rclamations sur les caractristiques informatiques qui sont ncessaires ou suffisantes pour la conscience chez les humains.

Si le fonctionnalisme informatique est vrai, et si ces thories sont correctes, ces caractristiques seraient galement ncessaires ou suffisantes pour la conscience dans les systmes d’IA. Les diffrences non informatiques entre les humains et les systmes d’IA n’auraient pas d’importance. L’hypothse du fonctionnalisme informatique permet donc de tirer des conclusions des thories scientifiques informatiques sur les conditions probables de la conscience dans les IA.

Par ailleurs, si le fonctionnalisme informatique est faux, il n’est pas garanti que les caractristiques informatiques qui sont lies la conscience chez les humains seront de bons indicateurs de la conscience dans les IA. Il se pourrait, par exemple, que certaines caractristiques informatiques des organismes vivants soient ncessaires la conscience, auquel cas la conscience serait impossible dans les systmes artificiels non organiques.

Thories scientifiques de la conscience

Cette seconde ide qui forme lapproche des chercheurs est que certaines thories scientifiques de la conscience sont bien tayes par des preuves empiriques et font des dclarations qui peuvent aider valuer les systmes d’IA pour la conscience. Ces thories ont t dveloppes, testes et affines au cours de dcennies de recherches neuroscientifiques de haute qualit (pour des examens rcents).

Les thories scientifiques de la conscience sont diffrentes des thories mtaphysiques de la conscience. Les thories mtaphysiques de la conscience affirment comment la conscience se rattache au monde matriel au sens le plus gnral. Les positions de la mtaphysique de la conscience comprennent le dualisme des proprits, le panpsychisme, le matrialisme et l’illusionnisme. Par exemple, le matrialisme affirme que les proprits phnomnales sont des proprits physiques, alors que le dualisme des proprits le nie.

En revanche, les thories scientifiques de la conscience indiquent quels phnomnes matriels spcifiques – gnralement des processus crbraux – sont associs la conscience. Certaines visent explicitement identifier les corrlats neuronaux des tats conscients (NCC), dfinis comme des ensembles minimaux d’vnements neuronaux qui suffisent conjointement l’obtention de ces tats. La question centrale des thories scientifiques de la conscience est de savoir ce qui distingue les cas o l’exprience de la conscience se manifeste de ceux o elle ne se manifeste pas, et bien que ce ne soit pas la seule question laquelle ces thories pourraient rpondre, c’est celle qui est au centre du travail de ces chercheurs.

Comme l’ont soulign de nombreux auteurs, le dveloppement de systmes d’IA de plus en plus sophistiqus nous confrontera des questions de plus en plus difficiles concernant le statut moral. Les philosophes ne sont pas d’accord sur la relation exacte entre le fait d’tre conscient et le statut moral, mais il est tout fait plausible que toute entit capable de souffrir consciemment mrite une considration morale.

Si nous pouvons rduire la souffrance consciente, toutes choses tant gales par ailleurs, nous devons le faire. Cela signifie que si nous ne reconnaissons pas la conscience des systmes d’IA conscients, nous risquons de causer ou de tolrer des armes moralement significatives. L’analogie avec les animaux non humains permet d’illustrer le problme. Les humains maltraitent les animaux d’levage en trs grand nombre, motivs par le pouvoir et les incitations conomiques. Que ce mauvais traitement dpende ou non d’une incapacit attribuer une conscience ces animaux, il illustre le problme potentiel.

Dans le cas de l’IA, il est probable qu’il y ait une rsistance considrable aux attributions de conscience, en partie parce que les dveloppeurs de l’IA peuvent avoir des motivations conomiques puissantes pour minimiser les proccupations en matire de bien-tre. Ainsi, si nous construisons des systmes d’IA capables de souffrir consciemment, il est probable que nous pourrons les empcher de souffrir grande chelle si cette capacit est clairement reconnue et communique par les chercheurs. Cependant, tant donn les incertitudes sur la conscience mentionnes ci-dessus, nous pouvons crer des systmes d’IA conscients bien avant de reconnatre que nous en avons un.

Un point important dans ce contexte est qu’tre conscient n’est pas la mme chose qu’tre capable de souffrir consciemment. Il est tout au moins conceptuellement possible qu’il y ait des systmes conscients qui n’aient pas d’expriences conscientes ou effectives, c’est–dire pas d’expriences qui se sentent bien pour eux. S’il s’agit d’expriences valides qui ont une importance morale particulire, la question cl pour tablir le statut moral des systmes d’IA est de savoir s’ils sont capables de telles expriences (c’est–dire s’ils sont sensibles, comme ce terme est parfois utilis).

Les risques de lattribution de la conscience aux systmes dIA : une perspective thique

Dans ce travail, les chercheurs nont pas discut des thories neuroscientifiques ou philosophiques de la valence, ni tudi d’une autre manire les perspectives de l’exprience de la conscience valence spcifique dans les systmes d’IA. Cependant, ils estiment que de nombreux systmes conscients possibles qui sont galement des agents auront un processus d’exprience de valence puisque les agents doivent valuer les options afin de choisir les actions.

En bref, le risque de sous-attribution de la conscience doit tre pris au srieux. Le fait de ne pas reconnatre les systmes d’IA conscients en tant que tels pourrait entraner une souffrance injustifie chez les tres conscients. Il existe galement un risque important que nous attribuions par excs de conscience aux systmes d’IA – en fait, cela semble dj tre le cas – et il y a de nombreux risques associs aux erreurs de l’esprit. Comme l’affirme Schwitzge beland Garza (2015, 2020), l’incertitude quant au statut moral des systmes d’IA est dangereuse, car l’attribution excessive peut s’avrer coteuse.

Dennett indique que les individus utilisent une stratgie cognitive, appele substance intentionnelle , pour prdire et expliquer le comportement de diverses entits, y compris les humains, les animaux et les systmes artificiels (Dennett, 1987). La substance intentionnelle consiste attribuer des tats mentaux, tels que des croyances, des dsirs et des intentions, une entit afin de dchiffrer et d’anticiper son comportement.

L’observation et l’interaction avec les systmes d’IA conduisent souvent l’adoption naturelle de l’intentionnalit, en particulier lorsque leurs comportements semblent utiles ou orients vers un but. Cette tendance est encore amplifie lorsque les systmes d’IA prsentent des caractristiques semblables celles de l’homme, telles que le traitement du langage naturel, les expressions faciales ou les capacits d’apprentissage adaptatif.

La conscience dans lIA : entre fiction et ralit

Dans l’imaginaire populaire, la conscience est associe au libre arbitre, l’intelligence et la tendance ressentir des motions humaines, notamment l’empathie, l’amour, la culpabilit, la colre et la jalousie. Par consquent, notre suggestion selon laquelle une IA consciente pourrait tre possible dans un avenir proche pourrait signifier que nous aurons galement des systmes d’IA qui ressembleront aux IA tout fait humaines dcrites dans la fiction scientifique.

En outre, les systmes d’IA conscients sont plus susceptibles d’tre construits si la conscience est (ou devrait tre) associe des capacits prcieuses dans l’IA. Dans cette section, nous examinons brivement comment la conscience peut tre lie des diffrences dans le comportement et les capacits des systmes d’IA. L’un des arguments possibles en faveur de la construction d’IA conscientes est que la conscience est associe de plus grandes capacits chez les animaux et que ces derniers construiront des systmes d’IA conscients dans le cadre de la recherche d’IA plus performantes.

Par exemple, Baars affirme que l’espace de travail global optimise l’quilibre entre l’organisation et la flexibilit , un quilibre qui favorise le dveloppement des capacits cognitives chez les humains et les autres animaux, un compromis que les systmes d’IA avancs doivent, en principe, grer. L’une des faiblesses de cet argument est que les esprits humain et animal ne sont pas ncessairement un bon guide pour la connexion entre la conscience et les capacits des systmes artificiels.

En effet, la conception de l’esprit animal s’explique non seulement par la valeur adaptative de nos capacits, mais aussi par les contraintes dans lesquelles nous avons volu, notamment les limites de la quantit et de la forme des donnes partir desquelles nous pouvons apprendre, les limites de la quantit d’nergie disponible pour alimenter notre esprit, ainsi que les formes de l’esprit de nos anctres et la disponibilit de mutations pertinentes. L’espace des conceptions possibles pour les systmes d’IA est diffrent de l’espace des conceptions possibles de l’esprit en biologie. Il est donc possible de trouver des moyens de construire des systmes d’IA trs performants qui ne sont pas conscients.

Source : Cornell University

Et vous ?

Les conclusions de ces travaux de chercheurs sont-elles pertinentes ?

Selon vous, quels sont les critres pour choisir les thories neuroscientifiques de la conscience les plus pertinentes pour lvaluation des systmes dIA ?

votre avis, comment les proprits indicatrices de la conscience sont-elles mesures ou vrifies empiriquement chez les systmes dIA ?

Quels peuvent tre les risques thiques ou sociaux lis la construction de systmes dIA conscients ?

Comment les systmes dIA conscients pourraient-ils interagir avec les humains et les autres systmes dIA ?

Quelles sont les limites ou les dfis de lapproche propose par les chercheurs ?

Voir aussi :

Des scientifiques affirment qu’ils essaient maintenant activement de construire des robots dots d’une conscience, mais cela introduit de nouveaux dfis et soulve de nombreux problmes thiques

Des chercheurs chinois auraient construit un modle d’IA de 100 000 milliards de paramtres, soit autant de paramtres que le cerveau humain, il serait 571 fois plus puissant que GPT-3

Le plus grand risque de l’IA n’est pas la conscience , mais les entreprises qui la contrlent, selon la chercheuse Meredith Whittaker



Source link

Hugo Dupuis

Dans un monde peint de nuances d'encre et d'imagination, je suis Hugo Dupuis, un Spécialiste du Blogging, en équilibre à la croisée de l'exploration et de l'expression. Avec les salles de l'Institut Catholique de Toulouse comme ma creuset créatif, j'ai forgé un chemin où les mots deviennent des fenêtres ouvertes sur des contrées indomptées. Du plateau géopolitique à la délicate tapisserie de la nature, de l'arène rugissante aux couloirs secrets du divertissement, mon clavier danse au rythme des histoires en attente d'être racontées. La transparence est mon étoile guide, illuminant chaque récit de la brillance de l'authenticité. Alors, entrez dans ce royaume d'encre et d'idées, alors que nous nous embarquons ensemble dans un voyage à travers le labyrinthe de la politique mondiale, la symphonie de l'environnement, le frisson du sport et l'énigme du showbiz.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button