Pour éviter une catastrophe de l’IA, les régulateurs doivent garantir une IA digne de confiance, disent les experts aux législateurs – DNyuz

To Avoid An AI Catastrophe, Regulators Must Ensure Trustworthy AI, Experts Tell Lawmakers

La plus grande opportunité et le plus grand danger de l’IA sont les mêmes pour le monde civil que pour le monde militaire : le potentiel de révéler ou d’obscurcir la vérité. Ce pouvoir pourrait faire la différence entre des élections justes et injustes, ou la vie ou la mort au combat.

Mardi, des innovateurs clés de l’IA ont comparu devant les législateurs pour discuter de la façon dont les nouveaux outils apportent de la valeur aux investisseurs et aux fabricants, même s’ils sont utilisés pour semer la confusion et tromper les gens.

D’une part, les nouveaux outils d’intelligence artificielle s’avèrent utiles non seulement pour rédaction d’essais mais pour une sorte de prescience. Un groupe de chercheurs de Harvard et du MIT a récemment démontré que le générative Les modèles d’IA peuvent prédireplus précisément que les sondages, comment les gens voteront en fonction des médias qu’ils consomment. Clearspeed, dont les produits sont utilisés par l’armée américaine, les compagnies d’assurance et d’autres clients, propose un outil d’intelligence artificielle qui utilise l’analyse des sentiments pour déterminer si une personne interrogée répond honnêtement aux questions par oui ou par non. Steve Wisotzki, un ancien Navy SEAL qui gère les relations gouvernementales pour la société, a déclaré Défense un la technologie a été mise au point pour aider les forces américaines et afghanes à détecter les menaces internes. De nombreuses nouvelles données ont aidé l’entreprise à affiner le modèle, a déclaré Wisotzki, au point de pouvoir identifier le « risque » qu’un sujet d’entretien mente avec une précision de plus de 97%, sur la base de moins de dix questions.

Mais l’utilisation de l’IA pour obscurcir la vérité se développe également. Dans son témoignage aux législateurs, Gary Marcus, neuroscientifique, auteur et entrepreneur, a décrit les menaces potentielles posées par les outils simples déjà disponibles. « Ils peuvent et vont créer des mensonges persuasifs à une échelle que l’humanité n’a jamais vue auparavant. Les étrangers les utiliseront pour influencer nos élections, les initiés pour manipuler nos marchés et nos systèmes politiques. La démocratie elle-même est menacée. Les chatbots façonneront également clandestinement nos opinions, dépassant potentiellement ce que les médias sociaux peuvent faire. Les choix concernant les ensembles de données que les entreprises d’IA utilisent auront une énorme influence invisible ; ceux qui choisissent les données établiront les règles qui façonneront la société de manière subtile mais puissante.

Sam Altman, qui a fondé OpenAI, créateur du nouvel outil populaire ChatGPT, a déclaré aux législateurs que « Mes pires craintes sont que nous… l’industrie technologique causons des dommages importants au monde… C’est pourquoi nous avons créé l’entreprise. C’est une grande partie de la raison pour laquelle je suis ici aujourd’hui.

Certains responsables militaires clés partagent ces inquiétudes quant à la fiabilité des outils d’IA, même si l’armée cherche à utiliser l’IA dans une grande variété de domaines.

Lisa Sanders, directrice de la science et de la technologie du Commandement des opérations spéciales des États-Unis, a déclaré Défense un, « Nous ne pouvons pas ignorer [tools like ChatGPT] parce que… le génie est sorti de la bouteille.

Des opérations efficaces dans les zones grises du futur signifieront «découvrir la vérité terrain un peu plus vite que l’environnement ne le voudrait, plus vite que je ne pourrais le faire, ce genre de super capacité à… arriver à une haute certitude de la vérité terrain plus rapidement que le profane », a déclaré Sanders Défense un dans une interview exclusive lors de l’événement Global SOF à Tampa, en Floride. .

SOCOM est travailler pour fusionner les données des capteurs, les données open source et l’intelligence artificielle pour aider les opérateurs dans les environnements de zone grise. Portant des lunettes ou des écouteurs spéciaux, les troupes des SOF comprendront mieux le sentiment de la population locale, comprendront les langues sans traducteurs connectés à Internet et, essentiellement, prédiront divers événements. Mais ces outils peuvent passer d’un atout à un passif s’ils ne sont pas dignes de confiance. Sanders a déclaré qu’une préoccupation clé est « comment puis-je valider soit mes conclusions que j’ai tirées, soit même la source de données brutes ».

Ce travail de validation de la vérité ne reviendra pas seulement à quelqu’un qui a écrit le logiciel et structuré les données avant le déploiement. Une partie reviendra à l’opérateur ou à son équipe en cas de conflit ou de conflit potentiel. Alors, comment leur donner suffisamment confiance dans le produit pour qu’ils puissent l’utiliser dans des moments tendus sans donner trop de confiance à cet opérateur dans un outil qui semble parfait ?

Sanders a déclaré que des opérateurs spéciaux devront être chargés de « comprendre et de peaufiner ces algorithmes… en particulier parce que nous savons que cela provient en grande partie d’un contexte non militaire et non lié à la sécurité nationale ». Il y aura des préjugés inhérents. Donc être capable de voir où ces préjugés nous emmènent sur une voie que nous devons ajuster ou identifier les préjugés que nous publions, je pense, est important et comment faites-vous cela sans avoir des scientifiques avec vous tout le chemin ? Comment pouvons-nous, en tant qu’utilisateur final, gagner en confiance dans cet outil afin de l’utiliser de manière appropriée pour nous aider à accomplir notre mission ? »

Mais s’appuyer sur ces entreprises « non militaires et non liées à la sécurité nationale » pour fabriquer des produits sûrs et bien contrôlés n’est pas une bonne idée, à moins que le Congrès ne puisse les obliger à décrire franchement le fonctionnement réel de leurs modèles et les données qui y sont intégrées. . Le Congrès doit également veiller à ce que des agences gouvernementales extérieures et des chercheurs indépendants puissent les évaluer, ont témoigné mardi des experts.

Altman d’OpenAI a proposé que les États-Unis fassent pression pour créer une organisation internationale de surveillance, similaire peut-être à l’AIEA, pour surveiller le développement d’outils d’IA. Il a suggéré que le gouvernement américain mette en place des normes et des organismes d’octroi de licences. Les entreprises qui abusent des outils d’IA ou créent des risques pour le public pourraient voir leurs licences d’utilisation ou de développement de produits révoquées.

Tout le monde dans la communauté technologique n’aime pas cette idée. Dimanche, Eric Schmidt, ancien PDG de Google qui dirige aujourd’hui un fonds de capital-risque secret axé sur la défense, suggéré que l’IA à l’échelle d’une entreprise comme Google et Microsoft est bien trop complexe pour être efficacement réglementée par qui que ce soit, à l’exception de l’industrie elle-même.

Mais une autre ancienne Googleuse, Meredith Whittaker, repoussé sur Twitter: « L’industrie technologique qui ne parvient pas à se contrôler alors que les régulateurs le permettent, c’est ainsi que nous sommes arrivés là où nous en sommes. Je dis cela en tant que personne qui a travaillé pour Google pendant plus de 13 ans. Ne vous laissez pas berner par des hommes puissants qui font des déclarations égoïstes sur un ton raisonnable.

Marcus, le neuroscientifique, a lancé un plaidoyer similaire : afin d’éviter les pires abus de l’IA, le gouvernement américain doit réglementer de toute urgence les sources de données, l’explicabilité des algorithmes et assurer une surveillance gouvernementale et civile générale.

« Le plan préféré des grandes entreprises technologiques se résume à : faites-nous confiance. Mais pourquoi devrions-nous? Les sommes d’argent en jeu sont ahurissantes », a-t-il déclaré. « La dérive des missions. L’énoncé de mission original d’OpenAI proclamait « notre objectif est de faire progresser l’IA de la manière la plus susceptible de profiter à l’humanité dans son ensemble, sans contrainte par le besoin de générer un rendement financier ». Sept ans plus tard, ils sont en grande partie redevables à Microsoft, impliqués dans une partie d’une bataille épique de moteurs de recherche qui inventent régulièrement des choses. Et cela a forcé Alphabet à se précipiter sur les produits et à minimiser la sécurité. L’humanité a pris du recul. »

La poste Pour éviter une catastrophe de l’IA, les régulateurs doivent garantir une IA digne de confiance, disent les experts aux législateurs est apparu en premier sur Défense un.

Loading...