L'heure de la décision : attention au battage médiatique autour de l'intelligence artificielle générative

03 mai 2023


Blog

Le fait que la dernière version de ChatGPT puisse passer des examens juridiques, créer des médicaments innovants, inventer des jeux - et bien d'autres choses encore - en quelques secondes seulement, a attiré des hordes de chefs d'entreprise vers l'intelligence artificielle générative, ce qui est tout à fait compréhensible. 

Cependant, aussi merveilleuse et attrayante que soit cette nouvelle branche de l'IA, les décideurs d'entreprise doivent se poser la question suivante : en avons-nous vraiment besoin ? Ou s'agit-il simplement d'un jouet utile plutôt que d'un outil commercial qui changera la donne ? Cela signifie qu'il faut comprendre quelles performances accrues peuvent être obtenues grâce aux applications des chatbots d'IA.

Alors que les dirigeants sont apparemment sous le charme, l'utilisation de l'IA juste pour le plaisir est contre-productive et coûteuse. En outre, en testant, en utilisant et en achetant des solutions d'IA générative, on nourrit la bête qui est susceptible de devenir plus grande que l'humanité.

Les experts estiment que l'intelligence générale artificielle (AGI), c'est-à-dire un système informasystème informatique capable de générer de nouvelles connaissances scientifiques et d'accomplir toutes les tâches humaines - est plus proche que jamais.capable de générer de nouvelles connaissances scientifiques et d'accomplir toutes les tâches humaines - est plus proche que jamais. Certains pensent qu'elle pourrait voir le jour d'ici dix ans.

Pour l'instant, de nombreuses personnes se contentent d'utiliser des versions gratuites d'outils d'IA générative. Mais il n'y a rien de gratuit dans le monde des affaires. Les recherches et les résultats qu'ils génèrent seront utilisés pour aider des entreprises telles que ChatGPT'à déterminer les cas d'utilisation et les applications pour lesquels les entreprises sont prêtes à payer, ainsi qu'à améliorer et à développer leurs capacités.

Pendant ce temps, l'ombre de l'AGI plane. Depuis que le ChatGPT a été rendu public en novembre, un torrent d'investissements et de talents a été déversé dans la recherche sur l'IAG. D'un seul coup, nous sommes passés d'une startup AGI, Deepmind, qui a attiré 23 millions de dollars de financement en 2012, à huit organisations ou plus opérant dans cet espace qui ont levé 20 milliards de dollars d'investissement cumulés cette année.

Il'Il convient de garder à l'esprit que, parallèlement aux investissements privés, les États-nations participent également à cette course. Après tout, les améliorations de l'IA permettent de mieux servir les civils et les militaires. Il est également important de comprendre que si une IA atteint des performances surhumaines dans l'écriture de logiciels, elle pourrait, par exemple, développer des cyber-armes. En effet, il y a trois ans, un programme d'IA a battu un pilote militaire américain expérimenté lors d'un combat aérien simulé.

 

Pause sur l'avancement des travaux

Il n'est donc pas étonnant qu'à la fin du mois de mars, Elon Musk et près de 4 000 signataires de premier plan, dont des ingénieurs d'Amazon, de DeepMind, de Google, de Meta et de Microsoft, aient tenté de mettre un terme à l'accélération vertigineuse de l'IA générative dans une lettre ouverte.

On peut y lire ce qui suit : "Ces derniers mois, les laboratoires d'IA se sont lancés dans une course effrénée pour développer et déployer des esprits numériques de plus en plus puissants que personne - pas même leurs créateurs - ne peut comprendre, prédire ou contrôler de manière fiable". La lettre poursuit : "Les systèmes d'IA puissants ne devraient être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables."

Nous devrions tous être attentifs au fait que les cerveaux humains les plus intelligents - et non les machines - exigent que le progrès soit stoppé. Mais il est à craindre que le robot ait déjà pris la poudre d'escampette. Compte tenu des avantages concurrentiels potentiels offerts si les rivaux choisissent d'ignorer ces outils d'IA, la tentation de continuer à repousser les frontières de la technologie au-delà de leurs limites actuelles sera-t-elle trop forte pour les chefs d'entreprise ?

En fin de compte, comme l'a mis en garde le technologue James Bridle dans un récent essai publié par The GuardianL'IA "est intrinsèquement stupide". Il a écrit : "Elle a lu la majeure partie d'Internet et sait à quoi est censé ressembler le langage humain, mais elle n'a aucun rapport avec la réalité."

Bridle a appelé les chefs d'entreprise à adopter un point de vue ambivalent sur le ChatGPT et l'IA en général. De plus, estimant qu'il s'agit d'une "bien informée ou significative [est] activement dangereuse", a-t-il ajouté. "Cela risque d'empoisonner le puits de la pensée collective et notre capacité à penser tout court.

Selon lui, le fait de s'en remettre à l'IA pour qu'elle opère sa magie pourrait convaincre les organisations de prendre des raccourcis et, pire encore, d'écarter les humains du siège de contrôle. Si un chef d'entreprise décide qu'il y a lieu d'utiliser et de financer des projets d'IA, il aura toujours besoin d'un certain degré de filtrage humain.

 

Garder les humains aux commandes

L'IA pourrait fournir des informations plus significatives sur une entreprise'L'IA pourrait fournir des informations plus significatives sur le portefeuille d'une entreprise, ses clients, les habitudes des consommateurs, etc. Mais lorsqu'il s'agit de décider quel produit lancer, par exemple, les dirigeants doivent prendre la décision finale. L'IA'C'est un peu comme utiliser Waze lors d'un voyage en voiture - il y a peut-être deux itinéraires possibles, et c'est un peu comme s'il s'agissait d'une carte de crédit, ou d'une carte de crédit.'C'est au conducteur de décider lequel prendre.

Poussant plus loin l'analogie, le professeur Erik Brynjolfsson, directeur du Digital Economy Lab à l'Institut de Stanford pour l'IA centrée sur l'homme, a cité Waymo'avec des véhicules autopilotés. "Cela fonctionne 99,9 % du temps, mais il y a un conducteur de sécurité humain qui supervise le système et un deuxième conducteur de sécurité au cas où le premier s'endormirait", a-t-il déclaré lors d'une récente interview. a-t-il déclaré lors d'une récente interview. "Les gens qui se surveillent les uns les autres ne sont pas la voie à suivre pour les voitures sans conducteur."

Par ailleurs, le Toyota Research Institute a "inversé la situation", a déclaré M. Brynjolfsson, en permettant à l'homme d'être au volant, de prendre les décisions, et à l'IA de "agit comme un ange gardien", n'intervenant qu'en cas de danger invisible ou manqué. "Je pense qu'il s'agit d'un bon modèle, non seulement pour la conduite autonome, mais aussi pour de nombreuses autres applications dans lesquelles les humains et les machines travaillent ensemble" , a ajouté M. Brynjolfsson.

Je suis d'accord avec cette analyse. L'homme doit rester dans le conducteur'ou le pilote'ou le siège du pilote. Et dans un contexte professionnel, le dirigeant doit être au cœur du processus de prise de décision, tout en étant informé par l'IA avec une meilleure visibilité que l'œil humain.

  • Auteur(s)


Les boutons de partage : e-mail linkedin twitter