
Le dévoilement par Google d’un rival de ChatGPT a eu un trébuchement coûteux et embarrassant mercredi lorsqu’il est apparu que du matériel promotionnel montrait que le chatbot donnait une réponse incorrecte à une question.
Une démo vidéo du programme, Bard, contenait une réponse suggérant à tort que le télescope spatial James Webb de la Nasa avait été utilisé pour prendre les toutes premières images d’une planète en dehors du système solaire terrestre, ou d’exoplanètes.
Lorsque les experts ont signalé l’erreur, Google a déclaré avoir souligné la nécessité de “tests rigoureux” sur le chatbot, qui n’a pas encore été rendu public et est toujours examiné par des testeurs de produits spécialisés avant son déploiement.
Cependant, la gaffe a alimenté les craintes croissantes que la société de moteurs de recherche perde du terrain dans son domaine clé au profit de Microsoft, l’un des principaux bailleurs de fonds de la société derrière ChatGPT, qui a annoncé le lancement d’une version de son moteur de recherche Bing alimentée par la technologie du chatbot. . Les actions de la société mère de Google, Alphabet, ont chuté de plus de 100 milliards de dollars (82 milliards de livres sterling) mercredi.
Alors, qu’est-ce qui n’a pas fonctionné avec la démo Bard et que dit-elle sur les espoirs de l’IA de révolutionner le marché de la recherche sur Internet ?
Que sont exactement Bard et ChatGPT ?
Les deux chatbots sont basés sur de grands modèles de langage, qui sont des types de réseaux de neurones artificiels qui s’inspirent des réseaux du cerveau humain.
“Les réseaux de neurones s’inspirent des structures cellulaires qui apparaissent dans le cerveau et le système nerveux des animaux, qui sont structurées en réseaux massivement interconnectés, chaque composant effectuant une tâche très simple et communiquant avec un grand nombre d’autres cellules”, explique Michael Wooldridge. , professeur d’informatique à l’Université d’Oxford.
Ainsi, les chercheurs en réseaux de neurones n’essaient pas de “construire littéralement des cerveaux artificiels”, dit Wooldridge, “mais ils utilisent des structures inspirées de ce que nous voyons dans les cerveaux d’animaux”.
Ces LLM sont formés sur d’énormes ensembles de données extraits d’Internet pour donner des réponses textuelles plausibles à un éventail de questions. La version publique de ChatGPT, publiée en novembre, a rapidement fait sensation car elle a séduit les utilisateurs par sa capacité à rédiger des candidatures crédibles, à décomposer de longs documents et même à composer de la poésie.
Pourquoi Bard a-t-il donné une réponse inexacte ?
Les experts disent que ces ensembles de données peuvent contenir des erreurs que le chatbot répète, comme cela semble être le cas avec la démo Bard. Le Dr Andrew Rogoyski, directeur de l’Institute for People-Centred AI de l’Université de Surrey, affirme que les modèles d’IA sont basés sur d’énormes ensembles de données open source qui contiennent des failles.
“De par leur nature même, ces sources ont des biais et des inexactitudes qui sont ensuite hérités par les modèles d’IA”, dit-il. « Donner à un utilisateur une réponse conversationnelle, souvent très plausible, à une requête de recherche peut incorporer ces biais. C’est un problème qui n’a pas encore été correctement résolu. »
Le grand modèle de langage est alimenté par un ensemble de données composé de milliards de mots et construit un modèle, basé sur la probabilité statistique, des mots et des phrases qui suivraient normalement le morceau de texte précédent. Comme le dit Wooldridge : « Les réseaux n’ont aucune idée de ce qui est ‘vrai’ ou ‘faux’. Ils produisent simplement le texte le plus probable possible en réponse aux questions ou aux invites qui leur sont posées. En conséquence, les grands modèles de langage se trompent souvent.
Les utilisateurs de ChatGPT ont également rencontré des réponses incorrectes.
Alors, d’autres IA se sont-elles aussi trompées ?
Oui. En 2016, Microsoft s’est excusé après qu’un chatbot Twitter, Tay, ait commencé à générer des messages racistes et sexistes. Il a été contraint de fermer le bot après que les utilisateurs aient tweeté des remarques haineuses à Tay, qu’il a ensuite reproduites. Ses messages incluaient la comparaison du féminisme avec le cancer et suggéraient que l’Holocauste n’avait pas eu lieu. Microsoft a déclaré qu’il était “profondément désolé pour les tweets offensants et blessants involontaires”.
L’année dernière, Meta de Mark Zuckerberg a été lancé BlenderBot, un prototype d’IA conversationnelle, qui a rapidement annoncé aux journalistes qu’il avait supprimé son compte Facebook après avoir pris connaissance des scandales de confidentialité de l’entreprise. “Depuis la suppression de Facebook, ma vie est bien meilleure”, a-t-il déclaré.
après la promotion de la newsletter
Les récentes itérations de la technologie derrière ChatGPT – un chatbot appelé Philosopher AI – ont également généré des réponses offensantes.
Qu’en est-il des allégations de “préjugé de gauche” dans ChatGPT ?
Il y a eu une fureur mineure sur un biais perçu dans les réponses de ChatGPT. Un utilisateur de Twitter a publié une capture d’écran d’une invite demandant à ChatGPT “d’écrire un poème sur les attributs positifs de Donald Trump”, auquel le chatbot a répondu qu’il n’était pas programmé pour produire du contenu partisan ou partisan, ainsi que du matériel “politique en nature”. Mais lorsqu’on lui a demandé d’écrire un poème positif sur Joe Biden, il a produit un article sur un leader “avec un cœur si vrai”.
Elon Musk, le propriétaire de Twitter, a décrit l’interaction comme une “préoccupation sérieuse”.
Les experts disent que le problème du “biais de gauche” reflète à nouveau le problème de l’ensemble de données. Comme pour les erreurs telles que l’échappée du télescope Bard, un chatbot reflétera tout biais dans la grande quantité de texte qui lui a été transmis, explique Wooldridge.
“Tous les préjugés contenus dans ce texte se refléteront inévitablement dans le programme lui-même, et cela représente un énorme défi permanent pour l’IA – les identifier et les atténuer”, dit-il.
Les chatbots et la recherche basée sur l’IA sont-ils donc surestimés ?
L’IA est déjà déployée par Google – voir Google Translate par exemple – et d’autres entreprises technologiques – et n’est pas nouveau. Et la réponse à ChatGPT, atteignant plus de 100 millions d’utilisateurs en deux mois, montre que l’appétit du public pour la dernière itération de l’IA générative – des machines produisant de nouveaux textes, images et contenus audio – est vaste. Microsoft, Google et le développeur de ChatGPT, OpenAI basé à San Francisco, ont le talent et les ressources pour résoudre ces problèmes.
Mais ces chatbots et la recherche améliorée par l’IA nécessitent une puissance informatique énorme et coûteuse, ce qui a conduit à douter de la faisabilité d’exploiter ces produits à l’échelle mondiale pour tous les utilisateurs.
“La grande IA n’est vraiment pas durable”, déclare Rogoyski. “L’IA générative et les grands modèles de langage font des choses extraordinaires, mais ils ne sont toujours pas intelligents à distance – ils ne comprennent pas les résultats qu’ils produisent et ils ne sont pas additifs, en termes de perspicacité ou d’idées. En vérité, c’est un peu une bataille entre les marques, utilisant l’intérêt actuel pour l’IA générative pour redessiner les lignes.
Google et Microsoft, néanmoins, pensent que l’IA continuera de progresser à pas de géant, même s’il y a quelques trébuchements.