För att undvika en AI-katastrof måste tillsynsmyndigheter säkerställa pålitlig AI, säger experter till lagstiftare – DNyuz

To Avoid An AI Catastrophe, Regulators Must Ensure Trustworthy AI, Experts Tell Lawmakers

AI:s största möjlighet och största fara är densamma för den civila världen som den är för militären: potentialen att avslöja eller fördunkla sanningen. Den makten kan vara skillnaden mellan rättvisa och orättvisa val, eller liv eller död i strid.

På tisdagen dök nyckelinnovatörer inom AI upp inför lagstiftare för att diskutera hur nya verktyg levererar värde till investerare och beslutsfattare – även när de används för att skapa förvirring och lura människor.

Å ena sidan har nya artificiella intelligensverktyg visat sig användbara inte bara för skriva uppsatser men för ett slags förutseende. En grupp av Harvard- och MIT-forskare visade nyligen att generativt AI-modeller kan förutsägamer exakt än enkäter, hur folk kommer att rösta baserat på de medier som de konsumerar. Clearspeed, vars produkter används av den amerikanska militären, försäkringsbolag och andra kunder, erbjuder ett AI-verktyg som använder sentimentanalys för att avgöra om en intervjuperson svarar sanningsenligt på ja-eller-nej-frågor. Steve Wisotzki, en före detta Navy SEAL som hanterar regeringsförbindelser för företaget, berättade Försvar ett Tekniken var pionjär för att hjälpa amerikanska och afghanska styrkor att upptäcka insiderhot. Massor av ny data har hjälpt företaget att förfina modellen, sa Wisotzki, till en punkt där den kan peka ut ”risken” att en intervjuperson ljuger med mer än 97 procents noggrannhet, baserat på färre än tio frågor.

Men användningen av AI för att dölja sanningen växer också. Som vittnesbörd för lagstiftare beskrev Gary Marcus, en neurovetare, författare och entreprenör, potentiella hot från de enkla verktyg som redan finns tillgängliga. ”De kan och kommer att skapa övertygande lögner i en skala som mänskligheten aldrig har sett förut. Utomstående kommer att använda dem för att påverka våra val, insiders för att manipulera våra marknader och våra politiska system. Själva demokratin är hotad. Chatbots kommer också att forma våra åsikter i hemlighet, och potentiellt överträffa vad sociala medier kan göra. Val om datamängder som AI-företag använder kommer att ha ett enormt osynligt inflytande; de som väljer data kommer att göra reglerna som formar samhället på subtila men kraftfulla sätt.”

Sam Altman, som grundade OpenAI, tillverkare av det populära nya verktyget ChatGPT, sa till lagstiftare att ”Min värsta rädsla är att vi … teknikindustrin orsakar betydande skada på världen … Det är därför vi startade företaget. Det är en stor del av varför jag är här idag.”

Några viktiga militära tjänstemän delar dessa farhågor om AI-verktygens tillförlitlighet även när militären försöker använda AI inom en mängd olika områden.

Det berättade Lisa Sanders, chef för vetenskap och teknik för US Special Operations Command Försvar ett, ”Vi kan inte ignorera [tools like ChatGPT] för att… Anden är slut ur flaskan.”

Effektiva operationer i framtidens gråzoner kommer att innebära att ”upptäcka marksanningen typ snabbare än omgivningen kanske vill att du ska, snabbare än jag kanske kan, den sortens superförmåga att … komma fram till hög säkerhet om marksanningen snabbare än lekmannen”, berättade Sanders Försvar ett i en exklusiv intervju under Global SOF-event i Tampa, Florida. .

SOCOM är arbetar med att slå samman sensordata, öppen källkodsdata och artificiell intelligens för att hjälpa operatörer i gråzonsmiljöer. Med speciella glasögon eller hörlurar kommer SOF-trupperna bättre att förstå lokalbefolkningens känslor, förstå språk utan internetanslutna översättare, och i huvudsak förutsäga olika händelser. Men sådana verktyg kan förvandlas från tillgång till skuld om de inte är pålitliga. Sanders sa att en viktig fråga är ”hur validerar jag antingen mina slutsatser som jag har gjort eller till och med den råa datakällan.”

Det jobbet med att validera sanningen kommer inte bara att falla på någon där hemma som har skrivit programvaran och strukturerat data innan distributionen. En del av det kommer att falla på operatören eller hans eller hennes team i ögonblicket av konflikt eller potentiell konflikt. Så hur ger du dem tillräckligt med förtroende för produkten så att de kan använda den i spända stunder utan att ge den operatören för mycket förtroende för ett verktyg som bara verkar perfekt?

Sanders sa att speciella operatörer kommer att behöva ”förstå och justera dessa algoritmer … speciellt eftersom vi vet att mycket av detta kommer från en icke-militär icke-nationell säkerhetsbakgrund. Det kommer att ha inneboende fördomar. Så att kunna se var dessa fördomar tar oss in på en väg som vi behöver justera eller att identifiera de fördomar som vi lägger ut tror jag är viktigt och hur gör man det utan att ha forskare med dig hela vägen? Hur kan vi som slutanvändare få förtroende och förtroende för det verktyget för att på lämpligt sätt använda det för att hjälpa oss att utföra vårt uppdrag?”

Men att lita på dessa ”icke-militära, icke-nationell säkerhetsbakgrund”-företag för att producera produkter som är säkra och välbevakade är inte en bra idé om inte kongressen kan tvinga dem att direkt beskriva hur deras modeller faktiskt fungerar och vilken data som finns i dem . Kongressen måste också se till att externa statliga myndigheter och oberoende forskare kan utvärdera dem, vittnade experter på tisdagen.

OpenAI:s Altman föreslog att USA skulle driva på för att skapa en internationell övervakningsorganisation, kanske liknande IAEA, för att se utvecklingen av AI-verktyg. Han föreslog att den amerikanska regeringen skulle inrätta standarder och licensieringsorgan. Företag som missbrukar AI-verktyg eller skapar risker för allmänheten kan få licenser att använda eller utveckla produkter återkallade.

Inte alla i teknikgemenskapen älskar den idén. På söndag, Eric Schmidt, en tidigare vd för Google som nu driver en hemlighetsfull försvarsfokuserad riskfond, föreslog att AI i omfattningen av ett företag som Google och Microsoft är alldeles för komplext för att effektivt kunna regleras av någon förutom industrin själv.

Men en annan tidigare Googler, Meredith Whittaker, tillbakatryckt på Twitter: ”Teknisk industri som misslyckas med att polisa sig själv medan tillsynsmyndigheterna aktiverade är hur vi kom dit vi är. Jag säger detta som någon som arbetat för Google i över 13 år. Låt dig inte luras av mäktiga män som gör egenintresserade uttalanden i rimliga toner.”

Marcus, neuroforskaren, lät en liknande vädjan: För att undvika det värsta av AI-missbruk måste USA:s regering omedelbart reglera datakällor, algoritmförklaring och tillhandahålla allmän statlig och civil tillsyn.

”De stora teknikföretagens föredragna plan handlar om: lita på oss. Men varför skulle vi det? Pengarna som står på spel är häpnadsväckande, säger han. ”Uppdragen glider. OpenAI:s ursprungliga uppdragsförklaring proklamerade ”vårt mål är att främja AI på det sätt som mest sannolikt kommer att gynna mänskligheten som helhet, utan begränsningar av ett behov av att generera ekonomisk avkastning.” Sju år senare är de till stor del beroende av Microsoft, indragna i en episk kamp mellan sökmotorer som rutinmässigt hittar på saker. Och det har tvingat Alphabet att skynda på produkter och tona ner säkerheten. Mänskligheten har tagit ett baksäte.”

Inlägget För att undvika en AI-katastrof måste tillsynsmyndigheter säkerställa pålitlig AI, säger experter till lagstiftare dök upp först Försvar ett.

Loading...