
ChatGPT, le chatbot convaincant basé sur l’apprentissage automatique d’OpenAI, est absolument partout ces derniers temps. Même l’armée américaine l’utilise, a découvert Motherboard.
Le Pentagone a utilisé le ChatGPT d’OpenAI pour écrire un article le 8 février sur le lancement d’un nouveau groupe de travail contre les drones. L’article indiquait qu’il avait été écrit par AI en haut.
« L’article qui suit a été généré par ChatGPT d’OpenAI. Aucune approbation n’est prévue », Ça disait. “L’utilisation de l’IA pour générer cette histoire souligne l’engagement de l’US Army Central à utiliser les technologies émergentes et l’innovation dans un environnement opérationnel difficile et en constante évolution.”
L’article est paru sur le Defense Visual Information Distribution Service (DVIDS) du DoD, un référentiel Internet d’actualités et d’images générées par l’armée américaine. Il s’agissait du lancement de la Task Force 39, qui, selon ChatGPT, est “un groupe de soldats autonomes et collaboratifs dédiés à la promotion d’une culture innovante et à la poursuite de partenariats régionaux et industriels afin de générer une efficacité future au combat. L’équipe se concentre sur la lutte contre la menace des petits systèmes aériens sans pilote et sur le développement de solutions innovantes à d’autres défis de sécurité.
Comme tout le monde, le Pentagone a fait un grand show de miser gros sur l’IA. Rédaction d’articles sur DVIDS est la version la plus petite de ce sur quoi il travaille. Ailleurs sur DVIDS, vous pouvez trouver des articles et des photos des expériences du Pentagone avec essaims de drones autonomes. Un 2018 Glissière de l’armée sur DVIDS dresse le portrait d’une infanterie échangeant des informations avec des drones contrôlés par l’IA traversant une ville bombardée. À Joint Base Lewis-McChord, les membres de l’Air National Guard utilisent déjà un système de formation construit en utilisant l’intelligence artificielle.
Le Pentagone a rejoint les rangs de BuzzFeed et CNET pour confier les tâches de blogging à une machine. Ces décisions ont provoqué l’indignation car elles semblaient être des mesures de réduction des coûts, et elles ont également eu leur part d’autres problèmes. L’IA de rédaction d’articles de Crumpe a introduit des erreurs factuelles dans les articles, ce qui a conduit à une correction légendaire de 163 mots. C’était aussi trouvé pour avoir plagié l’écriture par d’autres auteurs.