Les plans d’IA ambitieux du Pentagone ressemblent de moins en moins à ChatGPT – DNyuz

The Pentagon’s Ambitious AI Plans Look Less and Less Like ChatGPT

Le ChatGPT d’Open AI et ses semblables ont fait la une des journaux cette année, captivant les milliardaires, les fans, les régulateurs et pessimistes. Mais une grande partie de la couverture récente a également révélé pourquoi le Pentagone poursuit des approches assez différentes de l’IA : les chefs militaires ont besoin d’outils auxquels ils peuvent faire confiance.

L’une des principales raisons pour lesquelles ChatGPT et d’autres très grands modèles de langage sont si bons pour imiter l’écriture humaine est la même raison pour laquelle ils sont donnés tromperie: le réseau de neurones au cœur de l’IA est alimenté par la récupération d’informations sur des millions de sites Web. Bien qu’Open AI n’ait pas divulgué les sites Web qu’elle utilisait pour former ses outils, un récent Poste de Washington enquête a examiné 15 millions de sites Web que les chercheurs ont utilisés pour former des modèles similaires. Sans surprise, cette grande masse de données contient beaucoup de choses qui ne sont pas vraies – et un langage si important et génératif Les modèles d’IA mentent souvent.

Même si vous deviez former de grands modèles linguistiques sur un ensemble de sites Web soigneusement sélectionnés, vous pourriez toujours rencontrer « hallucination artificielle» : « le phénomène d’une machine, comme un chatbot, générant des expériences sensorielles apparemment réalistes qui ne correspondent à aucune entrée du monde réel ».

Le DOD fait donc très attention à l’utilisation de tels outils.

« Nous n’allons pas utiliser ChatGPT dans son instanciation actuelle. Cependant, les grands modèles de langage ont beaucoup d’utilité », a déclaré jeudi Maynard Holliday, directeur adjoint de la technologie du DOD pour les technologies critiques. Sommet Defence One Tech. « Nous allons utiliser ces grands modèles de langage, ces modèles d’IA générative, basés sur nos données. Et donc ils seront adaptés avec les données du ministère de la Défense, formés sur nos données, puis également sur notre calcul, soit notre calcul dans le cloud et/ou sur [premises] afin qu’il soit crypté, et nous sommes en mesure, essentiellement… d’analyser, ses commentaires.

Cette semaine, a déclaré Holliday, le ministère de la Défense convoquera un rassemblement «pour connaître, vous savez, quels sont les cas d’utilisation; quel est l’état de l’art dans l’industrie et dans le milieu universitaire. »

Le DOD doit également améliorer sa structuration et son partage des données, même deux ans après un directive fondamentale à ce sujet, a déclaré Mike Horowitz, qui dirige la politique des capacités émergentes Bureau dans Bureau du sous-secrétaire d’État à la Défense chargé de la politique.

« Vous avez besoin de bonnes données, comme des données applicables aux questions auxquelles vous souhaitez répondre avec l’IA », a déclaré Horowitz. « Vous avez besoin que ces données soient nettoyées, étiquetées, et ce processus prend du temps. Et ce processus a été. Je pense,… difficile. Et cela a été difficile parce que nous construisons toutes ces sortes de canaux de données qui ont été conçus pour être indépendants les uns des autres. »

Les commandants ne feront pas confiance à un outil s’ils ne peuvent pas comprendre comment il a été formé et sur quelles données, a déclaré Holliday.

« En 2015, lorsque j’étais au Conseil des sciences de la défense et que je faisais une étude sur l’autonomie, lorsque nous avons informé nos commandants combattants, ils ont dit :  » Vous savez, c’est formidable, cela pourrait changer la donne, mais… nous n’allons pas utilisez-le à moins que nous ne puissions lui faire confiance », a-t-il déclaré.

Construire de la confiance

N’importe qui peut jouer avec ChatGPT pour déterminer à quel point lui faire confiance pour une utilisation donnée, mais DODis prend une route plus formelle.

«La confiance initiale peut être acquise à partir des décisions de conception et de développement grâce aux points de contact des soldats et à la sécurité psychologique de base et à la confiance continuellement calibrée grâce aux preuves d’efficacité et aux commentaires fournis par le système pendant l’intégration et le fonctionnement. Il existe donc des défis pour mesurer la confiance des combattants, ce qui nécessite des recherches et une compréhension supplémentaires pour définir ce qui influence cela », a-t-il déclaré.

En pratique, cela ressemble beaucoup à certains des exercices que CENTCOM entreprend actuellement, réunissant des opérateurs de services et d’IA dans une série croissante de jeux et d’évaluations centrés sur les technologies émergentes.

Des exercices comme Oasis du dragon écarlate et Oasis du faucon sont structurés différemment du jeu d’entraînement militaire traditionnel, a déclaré Schuyler Moore, directeur de la technologie du Commandement central américain. Ces nouveaux exercices CENTCOM axés sur la technologie se succèdent rapidement et visent à innover dans la technologie en fonction des commentaires des soldats autant qu’à renforcer les compétences des opérateurs, a déclaré Moore lors du Tech Summit. Faire collaborer les opérateurs et les constructeurs dans le cadre des exercices est également un élément clé.

Celles-ci sont « destinées à suivre à bien des égards les meilleures pratiques de la communauté des logiciels et du secteur privé, à savoir que : vous faites cela en sprints ; vous le faites de manière itérative et vous répétez ces exercices encore et encore pour vous améliorer avec le temps », a-t-elle déclaré. « Donc, pour l’exercice que nous faisons en ce moment, il y a une mémoire musculaire que nous construisons, itérant dans les deux sens avec un développeur de logiciel et ne disant pas que la capacité logicielle qui m’a été remise est statique… L’attente c’est maintenant que vous pouvez et allez y faire des trous, partager vos commentaires, itérer avec l’équipe, continuer à donner vos commentaires à chaque fois et cela – pour être franc – a été un changement d’état d’esprit culturel parce que les exercices précédents n’ont jamais donné aux gens le l’occasion d’expérimenter ce type d’activité.

Andrew Moore, un conseiller CENTCOM sur l’IA, la robotique, le cloud computing et l’analyse de données, est venu à la commande de Google, où il a travaillé sur une variété de projets liés à l’IA, y compris Maven du projetqui est considéré comme un modèle pour la façon dont l’armée pourrait développer des équipes humaines-IA à l’avenir.

CENTCOM a joué un rôle clé dans le lancement de Maven, car de nombreux analystes avaient pour tâche de passer au crible des heures et des heures de données de drones pour comprendre comment se comportaient différentes personnes sur le terrain et lesquelles pouvaient constituer une menace.

La commande s’efforce d’approfondir ce type de recherche, afin de permettre aux moteurs d’intelligence artificielle de mieux comprendre les objets captés par les drones, a déclaré Moore.

« La prochaine vraie question est de s’assurer que vous êtes capable de faire des déductions sur ce qui se passe réellement en trouvant des relations entre tous ces points sur des cartes », a-t-il déclaré.

Une application d’IA révolutionnaire pour CENTCOM dans les années à venir ressemblera probablement moins à un générateur de texte flashy et bogué qu’à un graphique des connaissances, sur lequel Moore a travaillé chez Google. Un graphe de connaissances fonctionne pour structurer rapidement les données entrantes selon un concept approximatif de leurs propriétés et des relations entre les objets. Lorsque vous accédez à un site Web de médias sociaux et que vous voyez des recommandations sur les personnes avec lesquelles vous pourriez vous connecter, cela est en partie dû à un graphe de connaissances.

« Les graphiques de connaissances… à mon avis, sont ce qui crée ces entreprises d’un billion de dollars que vous voyez sur la côte ouest des États-Unis », a-t-il déclaré.

Mais pour CENTCOM, Moore envisage de construire un moteur pour comprendre les relations entre les objets à un niveau beaucoup plus profond, permettant au personnel de commandement de voir les connexions qui éclaireront le champ de bataille et tous les objets qu’il contient d’une manière que les adversaires essaient de garder cachées, ou non. même être au courant.

« Je pense que ça va être l’un des thèmes fédérateurs, vous verrez », a-t-il déclaré. « C’est l’importance absolue non seulement de pouvoir ingérer de grandes quantités de données, de pouvoir les normaliser de manière à pouvoir réellement faire des inférences de sorte que, peut-être, ce n’est pas seulement que ce navire sur l’océan prend une trajectoire étrange, mais aussi… leur financement, ou peut-être par leur propriété, ou d’autres informations secondaires ou tertiaires vraiment ternaires comme ça.

La poste Les plans d’IA ambitieux du Pentagone ressemblent de moins en moins à ChatGPT est apparu en premier sur Défense un.

Loading...