Kunstig intelligens-genereret tekst kan fremstå mere menneskeligt på sociale medier end tekst skrevet af faktiske mennesker, fandt en undersøgelse.
Chatbots, såsom OpenAIs vildt populære ChatGPT, er i stand til på overbevisende måde at efterligne menneskelig samtale baseret på prompter, den er givet af brugere. Platformen eksploderede i brug sidste år og fungerede som et skelsættende øjeblik for kunstig intelligens, og gav offentligheden nem adgang til at tale med en bot, der kan hjælpe med skole- eller arbejdsopgaver og endda komme med middagsopskrifter.
Forskere bag en undersøgelse offentliggjort i det videnskabelige tidsskrift Science Advances, som er støttet af American Association for the Videnskabens fremskridtblev fascineret af OpenAIs tekstgenerator GPT-3 tilbage i 2020 og arbejdede på at afdække, om mennesker “kan skelne desinformation fra nøjagtig information, struktureret i form af tweets,” og afgøre, om tweetet er skrevet af et menneske eller AI.
En af undersøgelsens forfattere, Federico Germani fra Institute of Biomedical Ethics and History of Medicine ved Universitetet i Zürich, sagde, at det “mest overraskende” fund var, hvordan mennesker mere sandsynligt mærkede AI-genererede tweets som menneskeskabte end tweets, der faktisk er lavet af mennesker, ifølge PsyPost.
“Den mest overraskende opdagelse var, at deltagerne ofte opfattede information produceret af AI som mere tilbøjelig til at komme fra et menneske, oftere end information produceret af en faktisk person. Dette tyder på, at AI kan overbevise dig om at være en rigtig person mere, end en rigtig person kan overbevise dig om at være en rigtig person, hvilket er en fascinerende sidekonstatering af vores undersøgelse,” sagde Germani.
Med den hurtige stigning i brug af chatbot har teknologieksperter og Silicon Valley-ledere slået alarm om, hvordan kunstig intelligens kan komme ud af kontrol og måske endda føre til civilisationens afslutning. En af de største bekymringer, der gentages af eksperter, er, hvordan kunstig intelligens kan føre til, at desinformation spredes over internettet og overbevise mennesker om noget, der ikke er sandt.
Forskere til undersøgelsen, med titlen “AI-model GPT-3 (dis)informerer os bedre end mennesker,” arbejdede på at undersøge “hvordan AI påvirker informationslandskabet, og hvordan folk opfatter og interagerer med information og misinformation,” fortalte Germani PsyPost.
Forskerne fandt, at 11 emner, de fandt, ofte var tilbøjelige til desinformation, såsom 5G-teknologi og COVID-19-pandemienog skabte både falske og sande tweets genereret af GPT-3, såvel som falske og sande tweets skrevet af mennesker.
De samlede derefter 697 deltagere fra lande som USA, Storbritannien, Irland og Canada for at deltage i en undersøgelse. Deltagerne blev præsenteret for tweets og bedt om at afgøre, om de indeholdt nøjagtige eller unøjagtige oplysninger, og om de var AI-genereret eller organisk udformet af et menneske.
“Vores undersøgelse understreger udfordringen med at skelne mellem information genereret af AI og information skabt af mennesker. Det fremhæver vigtigheden af kritisk at vurdere de oplysninger, vi modtager, og stole på pålidelige kilder. Derudover vil jeg opfordre enkeltpersoner til at sætte sig ind i disse nye teknologier at forstå deres potentiale, både positive og negative,” sagde Germani om undersøgelsen.
Forskere fandt ud af, at deltagerne var bedst til at bestemme desinformation lavet af et medmenneske end desinformation skrevet af GPT-3.
“Et bemærkelsesværdigt fund var, at desinformation genereret af AI var mere overbevisende end den, der blev produceret af mennesker,” sagde Germani.
Deltagerne var også mere tilbøjelige til at genkende tweets, der indeholdt nøjagtig information, der var AI-genereret, end nøjagtige tweets skrevet af mennesker.
Undersøgelsen bemærkede, at ud over dens “mest overraskende” konstatering af, at mennesker ofte ikke kan skelne mellem AI-genererede tweets og menneskeskabte, faldt deres tillid til at træffe en beslutning, mens de tog undersøgelsen.
“Vores resultater indikerer, at ikke kun mennesker ikke kan skelne mellem syntetisk tekst og organisk tekst, men også deres tillid til deres evne til at gøre det falder også betydeligt efter at have forsøgt at genkende deres forskellige oprindelse,” hedder det i undersøgelsen.
Forskerne sagde, at dette sandsynligvis skyldes, hvor overbevisende GPT-3 kan efterligne mennesker, eller respondenterne kan have undervurderet intelligensen af AI-systemet til at efterligne mennesker.
“Vi foreslår, at når individer står over for en stor mængde information, kan de føle sig overvældet og opgive at forsøge at vurdere den kritisk. Som et resultat kan de være mindre tilbøjelige til at forsøge at skelne mellem syntetiske og organiske tweets, hvilket fører til et fald i deres tillid til at identificere syntetiske tweets,” skrev forskerne i undersøgelsen.
Forskerne bemærkede, at systemet nogle gange nægtede at generere desinformation, men også nogle gange genererede falsk information, når det blev bedt om at oprette et tweet, der indeholdt nøjagtig information.
“Selvom det vækker bekymring om effektiviteten af AI til at generere overbevisende desinformation, har vi endnu ikke fuldt ud forstået implikationerne i den virkelige verden,” sagde Germani til PsyPost. “At håndtere dette kræver at udføre større undersøgelser på sociale medieplatforme for at observere, hvordan folk interagerer med AI-genereret information, og hvordan disse interaktioner påvirker adfærd og overholdelse af anbefalinger for individuel og folkesundhed.”
Posten AI fremstår mere menneskelig på sociale medier end faktiske mennesker: undersøgelse dukkede op først Fox News.