For at undgå en AI-katastrofe skal regulatorer sikre pålidelig AI, siger eksperter til lovgivere – DNyuz

To Avoid An AI Catastrophe, Regulators Must Ensure Trustworthy AI, Experts Tell Lawmakers

AI’s største mulighed og største fare er den samme for den civile verden, som den er for militæret: potentialet til at afsløre eller sløre sandheden. Den magt kunne være forskellen mellem retfærdige og uretfærdige valg eller liv eller død i kamp.

Tirsdag dukkede nøgleinnovatorer inden for kunstig intelligens op for lovgivere for at diskutere, hvordan nye værktøjer leverer værdi til investorer og beslutningstagere – selvom de bruges til at skabe forvirring og bedrage folk.

På den ene side har nye kunstig intelligens-værktøjer vist sig nyttige ikke kun til skrive essays men for en slags forvidenhed. En gruppe af Harvard- og MIT-forskere påviste for nylig, at generative AI-modeller kan forudsigemere præcist end meningsmålinger, hvordan folk vil stemme baseret på de medier, de forbruger. Clearspeed, hvis produkter bruges af det amerikanske militær, forsikringsselskaber og andre kunder, tilbyder et kunstig intelligens-værktøj, der bruger sentimentanalyse til at fortælle, om en interviewperson svarer sandfærdigt på ja-eller-nej-spørgsmål. Steve Wisotzki, en tidligere Navy SEAL, der administrerer regeringsforbindelser for virksomheden, fortalte Defense One teknologien var pioneret til at hjælpe amerikanske og afghanske styrker med at opdage insidertrusler. Masser af nye data har hjulpet virksomheden med at forfine modellen, sagde Wisotzki, til det punkt, hvor den kan udpege “risikoen” for, at et interviewperson lyver med mere end 97 procent nøjagtighed, baseret på færre end ti spørgsmål.

Men brugen af ​​kunstig intelligens til at sløre sandheden vokser også. Som vidnesbyrd til lovgivere beskrev Gary Marcus, en neurovidenskabsmand, forfatter og iværksætter, potentielle trusler fra de simple værktøjer, der allerede er tilgængelige. “De kan og vil skabe overbevisende løgne i en skala, som menneskeheden aldrig har set før. Outsidere vil bruge dem til at påvirke vores valg, insidere til at manipulere vores markeder og vores politiske systemer. Selve demokratiet er truet. Chatbots vil også hemmeligt forme vores meninger, hvilket potentielt overstiger, hvad sociale medier kan. Valg om datasæt, som AI-virksomheder bruger, vil have enorm uset indflydelse; dem, der vælger dataene, vil gøre reglerne til at forme samfundet på subtile, men kraftfulde måder.”

Sam Altman, der grundlagde OpenAI, skaberen af ​​det populære nye værktøj ChatGPT, fortalte lovgiverne, at “Min værste frygt er, at vi … teknologiindustrien forårsager betydelig skade på verden … Det er derfor, vi startede virksomheden. Det er en stor del af, hvorfor jeg er her i dag.”

Nogle vigtige militærembedsmænd deler disse bekymringer om pålideligheden af ​​AI-værktøjer, selvom militæret søger at bruge AI på en lang række områder.

Det fortalte Lisa Sanders, direktør for videnskab og teknologi for US Special Operations Command Defense One, “Vi kan ikke ignorere [tools like ChatGPT] fordi…ånden er ude af flasken.”

Effektive operationer i fremtidens gråzoner vil betyde “at opdage jordens sandhed lidt hurtigere end miljøet måske vil have dig til, hurtigere end jeg måske er i stand til, den slags super evner til at … nå frem til høj sikkerhed for sandheden hurtigere end lægmanden,” fortalte Sanders Defense One i et eksklusivt interview under Global SOF event i Tampa, Florida. .

SOCOM er arbejder på at fusionere sensordata, open source-data og kunstig intelligens at hjælpe operatører i gråzonemiljøer. Iført specielle briller eller hovedtelefoner vil SOF-tropper bedre forstå lokalbefolkningens følelser, forstå sprog uden internetforbundne oversættere og i det væsentlige forudsige forskellige begivenheder. Men sådanne værktøjer kan vende fra aktiv til ansvar, hvis de ikke er troværdige. Sanders sagde, at en central bekymring er “hvordan validerer jeg enten mine konklusioner, som jeg har draget, eller endda den rå datakilde.”

Jobbet med at validere sandheden vil ikke kun tilfalde nogen derhjemme, som har skrevet softwaren og struktureret dataene før implementering. Noget af det vil tilfalde operatøren eller hans eller hendes team i øjeblikke af konflikt eller potentiel konflikt. Så hvordan giver du dem tilstrækkelig tro på produktet til, at de kan bruge det i spændte øjeblikke uden at give operatøren for meget tillid til et værktøj, der kun virker perfekt?

Sanders sagde, at særlige operatører bliver nødt til at “forstå og justere disse algoritmer … især fordi vi ved, at meget af dette kommer fra en ikke-militær ikke-national sikkerhedsbaggrund. Det vil have iboende skævheder. Så at være i stand til at se, hvor disse skævheder fører os ned ad en vej, som vi skal justere, eller at identificere de skævheder, som vi udsender, synes jeg er vigtigt, og hvordan gør man det uden at have videnskabsmænd med hele vejen? Hvordan kan vi som slutbruger opnå tillid og tillid til det værktøj for at bruge det korrekt til at hjælpe os med at udføre vores mission?”

Men det er ikke en god idé at stole på disse “ikke-militære, ikke-national sikkerhedsbaggrund”-virksomheder til at producere produkter, der er sikre og velovervejede, medmindre Kongressen kan tvinge dem til ligefrem at beskrive, hvordan deres modeller rent faktisk fungerer, og hvilke data der indgår i dem. . Kongressen skal også sikre, at eksterne regeringsorganer og uafhængige forskere kan evaluere dem, vidnede eksperter tirsdag.

OpenAI’s Altman foreslog, at USA skulle presse på for at skabe en international overvågningsorganisation, måske magen til IAEA, for at se udviklingen af ​​AI-værktøjer. Han foreslog den amerikanske regering at oprette standarder og licenseringsorganer. Virksomheder, der misbruger AI-værktøjer eller skaber risici for offentligheden, kan se licenser til at bruge eller udvikle produkter tilbagekaldt.

Ikke alle i teknologisamfundet elsker den idé. På søndag, Eric Schmidt, en tidligere administrerende direktør for Google, der nu kører en hemmelighedsfuld forsvarsfokuseret venturefond, foreslået at kunstig intelligens på størrelse med en virksomhed som Google og Microsoft er alt for kompleks til at blive effektivt reguleret af andre end industrien selv.

Men en anden tidligere Googler, Meredith Whittaker, skubbet tilbage på Twitter: “Den teknologiske industri undlader at overvåge sig selv, mens regulatorer aktiveret, er hvordan vi nåede derhen, hvor vi er. Jeg siger dette som en, der har arbejdet for Google i over 13 år. Lad dig ikke narre af magtfulde mænd, der fremsætter egeninteresserede udtalelser i rimelige toner.”

Marcus, neuroforskeren, lød en lignende bøn: For at undgå det værste af AI-misbrug skal den amerikanske regering omgående regulere datakilder, algoritmeforklarlighed og sørge for generelt statsligt og civilt tilsyn.

“De store teknologivirksomheders foretrukne plan bunder i: stol på os. Men hvorfor skulle vi det? De pengebeløb, der er på spil, er forbløffende,” sagde han. “Missionerne driver. OpenAI’s oprindelige mission statement proklamerede “vores mål er at fremme AI på den måde, der med størst sandsynlighed vil gavne menneskeheden som helhed, ubegrænset af et behov for at generere økonomisk afkast.” Syv år senere er de stort set afhængige af Microsoft, involveret i en del af en episk kamp mellem søgemaskiner, der rutinemæssigt finder på tingene. Og det har tvunget Alphabet til at skynde sig ud med produkter og nedtone sikkerheden. Menneskeheden har sat sig på bagsædet.”

Posten For at undgå en AI-katastrofe skal regulatorer sikre troværdig AI, siger eksperter til lovgivere dukkede op først Defense One.

Loading...