AI verkar mer mänsklig på sociala medier än faktiska människor: studie – DNyuz

AI appears more human on social media than actual humans: study

Artificiell intelligens genererad text kan framstå som mer mänsklig på sociala medier än text skriven av faktiska människor, fann en studie.

Chatbots, som OpenAIs mycket populära ChatGPT, kan på ett övertygande sätt efterlikna mänskliga konversationer baserat på uppmaningar som de ges av användare. Plattformen exploderade i användning förra året och fungerade som en vattendelare för artificiell intelligens, och gav allmänheten enkel tillgång till att prata med en bot som kan hjälpa till med skol- eller arbetsuppgifter och till och med komma på middagsrecept.

Forskare bakom en studie publicerad i den vetenskapliga tidskriften Science Advances, som stöds av American Association for the Vetenskapens framstegfascinerades av OpenAI:s textgenerator GPT-3 redan 2020 och arbetade för att avslöja om människor ”kan skilja desinformation från korrekt information, strukturerad i form av tweets”, och avgöra om tweeten skrevs av en människa eller AI.

En av studiens författare, Federico Germani från Institutet för biomedicinsk etik och medicinhistoria vid universitetet i Zürich, sa att det ”mest överraskande” fyndet var hur människor mer sannolikt betecknade AI-genererade tweets som mänskliga genererade än tweets som faktiskt skapats av människor, enligt PsyPost.

”Den mest överraskande upptäckten var att deltagarna ofta uppfattade information producerad av AI som mer sannolikt att komma från en människa, oftare än information producerad av en faktisk person. Detta tyder på att AI kan övertyga dig om att vara en riktig person mer än en riktig person kan övertyga dig om att vara en riktig person, vilket är ett fascinerande sidoresultat av vår studie, säger Germani.

Med den snabba ökningen av chatbotanvändning har teknikexperter och Silicon Valley-ledare slagit larm om hur artificiell intelligens kan gå utom kontroll och kanske till och med leda till slutet för civilisationen. En av de största farhågorna som upprepas av experter är hur AI kan leda till att desinformation sprids över internet och övertygar människor om något som inte är sant.

Forskare för studien, med titeln ”AI-modellen GPT-3 (av)informerar oss bättre än människor”, arbetade för att undersöka ”hur AI påverkar informationslandskapet och hur människor uppfattar och interagerar med information och desinformation”, sa Germani till PsyPost.

Forskarna fann 11 ämnen som de fann ofta var benägna att desinformation, såsom 5G-teknik och covid-19-pandeminoch skapade både falska och sanna tweets genererade av GPT-3, såväl som falska och sanna tweets skrivna av människor.

De samlade sedan 697 deltagare från länder som USA, Storbritannien, Irland och Kanada för att delta i en undersökning. Deltagarna presenterades för tweets och ombads att avgöra om de innehöll korrekt eller felaktig information, och om de var AI-genererade eller organiskt skapade av en människa.

”Vår studie betonar utmaningen att skilja mellan information som genereras av AI och den som skapas av människor. Det understryker vikten av att kritiskt utvärdera den information vi får och lita på tillförlitliga källor. Dessutom vill jag uppmuntra individer att bekanta sig med dessa framväxande teknologier att förstå deras potential, både positiv och negativ, säger Germani om studien.

Forskare fann att deltagarna var bäst på att fastställa desinformation skapad av en medmänniska än desinformation skriven av GPT-3.

”En anmärkningsvärd upptäckt var att desinformation som genererades av AI var mer övertygande än den som produceras av människor,” sa Germani.

Deltagarna var också mer benägna att känna igen tweets som innehöll korrekt information som var AI-genererad än exakta tweets skrivna av människor.

Studien noterade att utöver dess ”mest överraskande” upptäckt att människor ofta inte kan skilja mellan AI-genererade tweets och människor skapade, minskade deras förtroende för att fatta ett beslut när de gjorde undersökningen.

”Våra resultat indikerar att inte bara människor inte kan skilja på syntetisk text och organisk text utan att deras tilltro till deras förmåga att göra det också minskar avsevärt efter att ha försökt känna igen deras olika ursprung”, säger studien.

Forskarna sa att detta troligen beror på hur övertygande GPT-3 kan efterlikna människor, eller att respondenterna kan ha underskattat intelligensen hos AI-systemet för att efterlikna människor.

”Vi föreslår att när individer ställs inför en stor mängd information kan de känna sig överväldigade och ge upp att försöka utvärdera den kritiskt. Som ett resultat kan de vara mindre benägna att försöka skilja mellan syntetiska och organiska tweets, vilket leder till en minskning av deras förtroende för att identifiera syntetiska tweets”, skrev forskarna i studien.

Forskarna noterade att systemet ibland vägrade att generera desinformation, men också ibland genererade falsk information när det blev tillsagt att skapa en tweet som innehåller korrekt information.

”Även om det väcker farhågor om effektiviteten av AI för att generera övertygande desinformation, har vi ännu inte fullt ut förstått de verkliga implikationerna,” sa Germani till PsyPost. ”För att ta itu med detta krävs att man genomför större studier på sociala medieplattformar för att observera hur människor interagerar med AI-genererad information och hur dessa interaktioner påverkar beteende och efterlevnad av rekommendationer för individens och folkhälsan.”

Inlägget AI framstår som mer mänsklig på sociala medier än faktiska människor: studie dök upp först Fox news.

Loading...