Catégories: Actualité
|
20 avril 2024 22 h 08 min

« Comprendre l’Intelligence Artificielle et ses Malentendus »

Partager

Il n’y a pas un seul jour sans nouvelles concernant l’intelligence artificielle (IA), qu’il s’agisse de l’investissement de géants du web, de services innovants, ou des controverses associées à cette technologie en plein essor qui est en train de transformer notre économie et notre société. Certains s’interrogent même si on ne serait pas face à une nouvelle bulle de l’IA, semblable à celle d’internet de la fin des années 1990.

L’introduction récente d’algorithmes intelligents tels que ChatGPT ou Midjourney a changé la façon dont le public général voit l’IA. Cependant, l’idée d’une machine imitant le cerveau humain est presque aussi vieille que l’informatique elle-même.

Alors, au-delà des illusions et des préoccupations légitimes, qu’est-ce que l’IA réellement ? Qu’est-ce qui différencie la révolution actuelle ? Les machines sont-elles plus intelligentes que nous ?

L’IA est un domaine de recherche multidisciplinaire qui fait intervenir l’informatique, les maths, la psychologie cognitive et la linguistique, entre autres. Il vise à imiter certaines capacités humaines, comme la réflexion, la planification et la résolution de problèmes, grâce à des algorithmes.

Le terme « intelligence artificielle » a été inventé en 1956, faisant écho aux travaux du philosophe positiviste français Hippolyte Taine. En 1870, dans son ouvrage De l’intelligence, il comparait le cerveau humain à une « machine », dont les pionniers de l’IA tentaient de modéliser et reproduire le fonctionnement.

L’usage de l’expression « Intelligence Artificielle » a toujours soulevé des débats à cause de son ambiguïté et de la notion erronée d’une conscience artificielle émergeante. Karine Deschinkel, professeure de recherche informatique à l’Université de Franche-Comté, soutient que le terme « intelligence » n’est pas approprié car le processus est programmé. C’est plutôt un algorithme, similaire à une méthode de préparation culinaire, une série d’équations mathématiques qui enseignent à la machine à accomplir des activités normalement assignées à l’être humain. D’autres alternative linguistiques comme « informatique évoluée », « informatique algorithmique », « intelligence améliorée » ou « intelligence assistée » sont préférées par certains pour établir des attentes réalistes.

Pourquoi est-ce une technologie en vogue actuellement ?

Bien que l’ambition de reproduire l’intelligence humaine par le biais de l’informatique ait commencé dans les années 1950, l’enthousiasme initial a été freiné par la puissance limitée et la mémoire restreinte des premiers ordinateurs, ainsi que par des conflits philosophiques fondamentaux. Jean-Gabriel Ganascia, informaticien et professeur de philosophie à l’Université Paris-Sorbonne, note que ce parcours a été pavé de beaucoup de surprises et d’échecs.

La prophétie de l’économiste américain Herbert Simon (1916-2001), selon laquelle un ordinateur vaincrait un humain aux échecs avant 1967, illustre cet échec. Il a fallu attendre jusqu’à 1997 et l’avènement de microprocesseurs bien plus performants pour qu’un algorithme, Deep Blue, batte le grand maître d’échecs reconnu mondialement, Garry Kasparov. Il convient toutefois de noter que l’approche choisie par Deep Blue était une forme d’intelligence restreinte qui utilise la méthode de « force brute », un processus primitif qui consiste à évaluer toutes les hypothèses possibles une à une.

La progression de l’informatique, la popularisation d’internet, la création de nouveaux langages de codage, ainsi que les améliorations dans les mathématiques formelles, ont conduit à une avancée substantielle dans le domaine au fil des années, culminant avec le pic significatif des années 2010. Trois facteurs simultanés contribuent à ce phénomène :

– La naissance des réseaux neuronaux convolutifs (CNN), une catégorie de neurones synthétiques qui sont particulièrement doués pour identifier les motifs répétitifs dans les fichiers multimédias (images, musiques, etc.), permettant ainsi d’identifier les traits communs (par exemple, une forme de trompe pour les éléphants) et de les classer. C’est le progrès de l’apprentissage automatique, ou « machine learning ».
– L’expansion des cartes graphiques, un élément de matériel informatique extrêmement efficace pour examiner et classer de vastes bases de données textuelles et multimédias que l’IA utilise pour s’ « entraîner ». La montée de l’IA favorise également les affaires des fabricants tels que Nvidia, qui est actuellement valorisé à 2 000 milliards de dollars en bourse, faisant de son PDG et fondateur, Jensen Huang, le nouveau tycoon le plus influent de la tech.
– La montée en puissance du « big data », ou données à grande échelle : grâce à d’énormes bases de données désormais disponibles en ligne via des moteurs de recherche, des bases de données, des objets connectés et des plateformes collaboratives, il est désormais possible d’entraîner les algorithmes de classification sur des échantillons massifs. C’est le deep learning, l’apprentissage à partir de quantités importantes d’exemples, souvent annotés par des humains pour « guider » la machine.
Ces trois éléments ont conduit à l’élaboration simultanée de multiples applications d’IA, certaines strictement professionnelles, d’autres destinées au grand public, qui servent à promouvoir le domaine.
Qu’est-ce qui rend les IA populaires si spéciales?

Les algorithmes comme ChatGPT, Bard, Midjourney, et Stable Diffusion sont très convoités par la presse et sont une source de fascination pour les internautes depuis 2022. Tous ces algorithmes partagent une caractéristique commune : ils sont tous des intelligences artificielles génératives. Ce sous-genre de l’IA est couramment utilisé pour produire du contenu unique, principalement dans les industries créatives telles que le cinéma, les jeux vidéo et la publicité. Ces industries cherchent à explorer de nouvelles idées rapidement et à faible coût.

Bien que l’utilisation de ces algorithmes paraisse magique en apparence, la vérité est que ces machines n’inventent rien de nouveau. Comme Karine Deschinkel le souligne, ce sont les humains qui programment ces machines à l’aide des algorithmes et des méthodes que nous leur fournissons.

Une des grandes forces de l’IA générative est qu’elle peut permettre de matérialiser des choses qui n’existaient pas mais qui auraient pu exister. Par exemple, la dixième symphonie de Beethoven dont on ne connaît que quelques fragments inachevés. En 2021, des ingénieurs et des musicologues ont supervisé un algorithme d’IA pour qu’il analyse les partitions de Beethoven et propose une version complète de la symphonie. Cet algorithme a généré la suite la plus probable de notes pour chaque séquence, en se basant sur les œuvres existantes de l’artiste, même si le résultat pourrait ne pas être le plus poétique.

Depuis la fin de 2022, la disponibilité de l’intelligence artificielle (IA) a connu une croissance exponentielle. Bien que cette technologie ne soit pas une innovation récente, et fut développée depuis une dizaine d’années dans les laboratoires des grandes entreprises technologiques, ces dernières ont choisi de ne pas dévoiler leur progrès jusqu’à ce que les outils soient perfectionnés. Cependant, les startups comme OpenAI ont changé la donne en rendant l’IA publiquement accessible, permettant ainsi à tout utilisateur d’Internet de générer des œuvres créatives comme des poèmes, des rap, des affiches de films grâce à une imagination algorithmique.

L’IA a de multiples applications. Elle est de plus en plus présente sur Internet, où des moteurs de recherche à l’instar de Google et Bing fournissent des réponses sur mesure pour les requêtes des utilisateurs. De même, Gmail, le service de messagerie, utilise l’IA pour prédire et suggérer des phrases polies dans les emails. L’IA joue aussi un rôle crucial dans la publicité ciblée, la traduction automatique, et les chatbots.

Dans la vie quotidienne, l’IA, grâce à sa capacité de calcul, est employée dans divers domaines comme les prévisions météorologiques, l’animation des services d’appel téléphonique, l’analyse de profils pour le recrutement, la prévision du trafic routier, l’interprétation d’images médicales, la gestion des stocks, et même la rédaction automatisée de brefs articles de presse. L’industrie pharmaceutique s’appuie également sur l’IA pour la création de nouveaux médicaments.

Dans le secteur médical, des intelligences artificielles (IA) spécialisées dans l’examen et l’interprétation d’images radiographiques assistent maintenant les médecins d’urgence dans la détection de certaines fractures qui auraient pu être manquées, soit à cause de l’épuisement du professionnel de santé, soit parce que la fracture est trop minime. Comme le souligne Laure Abensur Vuillaume, experte en médecine d’urgence au CHR Metz-Thionville, l’IA ne surpasse pas le médecin, mais le partenariat entre l’IA et le médecin est plus efficace que le médecin seul.

L’IA a également des applications intégrées comme les voitures autonomes, les thermostats innovants, les gadgets connectés, les robots industriels, etc.

Alors, l’IA est-elle réellement intelligente?
Son nom porte certainement cette attente, mais jusqu’à présent, pas vraiment. L’IA est capable de répliquer plusieurs facettes fonctionnelles de l’intelligence humaine (perception environnementale, mémorisation, langage, motricité, calcul, résolution de problèmes…), mais principalement sur une seule tâche à la fois. Elle ne peut pas ressentir, éprouver des émotions, faire preuve de curiosité, dépasser les limites pour lesquelles elle a été programmée, ou avoir une sorte d’autosensibilisation.

On peut identifier trois principaux niveaux théoriques d’IA:
– La superintelligence, qui excéderait les compétences cognitives humaines et mènerait à la singularité technologique, c’est-à-dire à un bouleversement imprévisible des événements. Comme Skynet dans le film Terminator ou la Matrice dans le film Matrix, cela reste de la science-fiction.

La forte intelligence artificielle (IA), pouvant offrir une variété de compétences, une sophistication et une conscience identique à celle de l’humain, capable de résoudre des problèmes dans des environnements complexes, était l’objectif des pionniers de ce domaine. C’est vue davantage comme une philosophie, elle reste inaccessible à ce jour, en raison de l’absence de supercalculateurs suffisamment puissants et de la compréhension et modélisation fine de l’intelligence humaine.

L’IA faible, ou l’IA spécifique, celle construite par les ingénieurs, reproduit de manière limitée et hautement spécialisée certains éléments de la cognition humaine. Aujourd’hui, elles représentent la quasi-totalité des IA existantes. Ces IA fonctionnelles peuvent analyser leur contexte d’opération, résoudre des problèmes, entreprendre des actions pour atteindre leur objectif défini et s’adapter à un certain degré à la situation, mais elles ne peuvent pas dépasser leur cadre.

Même ces IA faibles ne sont pas vraiment « intelligentes ». Elles utilisent d’immenses bases de données sur lesquelles elles sont « entrainées » pour fournir la réponse qu’elles jugent la plus probable à la demande de l’utilisateur. Comme l’ingénieur franco-américain Luc Julia, le créateur de l’assistant vocal d’Apple, Siri, l’expliquait en 2019 concernant l’algorithme du jeu de go AlphaGo : « Il n’y a pas d’intelligence, juste une énorme quantité de données et quelques statistiques ».

Les IA sont-elles parfaites ?
Certainement pas. Les IA actuelles ont plusieurs lacunes importantes.

Les intelligences artificielles, particulièrement les IA génératives, ont tendance à créer des déclarations entièrement fabriquées avec une assurance convaincante. Par exemple, en 2023, un cabinet d’avocats a subi le courroux d’un juge de New York pour avoir soumis un mémoire rédigé par ChatGPT contenant six décisions de justice imaginaires. Google considère la diminution de telles institutions comme un problème cardinal pour les IA génératives. Les expériences de L’Est Républicain avec l’usage de ChatGPT pour titrer et réviser leurs articles ont mis en lumière de nombreuses imprecisions et maladresses, même si le traitement était plus rapide.

Les préjugés sont aussi un souci. Étant donné que les IA sont « formées » sur des bases de données, si celles-ci contiennent des préjugés, l’IA les reproduira. Microsoft a dû faire face à ce problème en 2016 avec son IA conversationnelle Tay, qui a tenu des propos négationnistes. Cela ne montre pas que l’IA est biaisée, mais plutôt que nous le sommes, et que l’IA apprend à partir de nous. L’usage de l’IA dans la surveillance vidéo montre des préjugés ethniques. En 2018, Joy Buolamwini, ingénieure en informatique et fondatrice de l’Algorithmic Justice League, a démontré qu’il y avait un taux d’erreur d’identification de 1% pour un homme blanc, contre 35% à 38% pour une femme de couleur.

Les failles de sécurité. Effectivement, les systèmes d’Intelligence Artificielle (IA) peuvent être manipulés à mauvais escient par des individus malveillants, soit en détournant les directives, soit en « contaminant » leur base de données. L’une de ces failles, surnommée « la grand-mère », a permis à certains utilisateurs en ligne de faire dire à ChatGPT comment construire une bombe.

L’IA comporte-elle des dangers ?

Incontestablement, les risques associés à l’IA dépendent à la fois des domaines sensibles dans lesquels elle est déployée et de défaillances ou d’actes malveillants dans la supervision humaine. Si elle est mal utilisée, l’IA peut être employée pour rédiger des spams captivants, procéder à l’hameçonnage de données personnelles, construire des sites internet trompeurs, créer des images violentes, racistes ou sexistes (par exemple pour inventer de fausses images pornographiques de célébrités ; ou pour modifier les tenues jugées trop provocantes sur les photos de femmes). L’IA peut aussi être utilisée de manière antidémocratique. En Russie, des IA ont été formées pour repérer les participants à des manifestations contre Poutine.

Ses dysfonctionnements et préjugés statistiques peuvent entrainer des conséquences graves, surtout considérant que les algorithmes d’IA sont utilisés dans des secteurs comme la justice, la santé, et même l’armée. L’armée américaine a par exemple réussi à tester un avion de combat guidé par IA. Une investigation du site d’information indépendant israélien +972 montre que l’armée israélienne fait un usage excessivement confiant d’une IA, Lavender, pour cibler ses frappes aériennes, malgré une marge d’erreur de 10% dans l’identification des cibles.

Dans une mise en garde de Jean-Gabriel Ganascia, il a exhorté à faire preuve de prudence lors de l’utilisation de l’Intelligence Artificielle et à éviter de leur faire une confiance excessive. Au cours du mois de mars 2024, l’Organisation des Nations Unies a appelé par résolution à l’élaboration de règlementations internationales précises pour encadrer l’application de l’IA.