Durch künstliche Intelligenz generierter Text Laut einer Studie können Texte in sozialen Medien menschlicher wirken als Texte, die von echten Menschen geschrieben wurden.
Chatbots wie der äußerst beliebte ChatGPT von OpenAI sind in der Lage, menschliche Konversationen basierend auf den Eingabeaufforderungen der Benutzer überzeugend nachzuahmen. Die Nutzung der Plattform nahm letztes Jahr explosionsartig zu und stellte einen Wendepunkt für künstliche Intelligenz dar, da sie der Öffentlichkeit einen einfachen Zugang zur Unterhaltung mit einem Bot ermöglichte, der bei Schul- oder Arbeitsaufgaben helfen und sogar Rezepte für das Abendessen entwickeln kann.
Forscher hinter einer Studie, die in der Fachzeitschrift Science Advances veröffentlicht wurde und von der American Association for the unterstützt wird Förderung der Wissenschaftwaren bereits im Jahr 2020 vom Textgenerator GPT-3 von OpenAI fasziniert und arbeiteten daran, herauszufinden, ob Menschen „Desinformation von korrekten Informationen unterscheiden können, die in Form von Tweets strukturiert sind“, und festzustellen, ob der Tweet von einem Menschen oder einer KI geschrieben wurde.
Einer der Autoren der Studie, Federico Germani vom Institut für Biomedizinische Ethik und Geschichte der Medizin an der Universität Zürich, sagte, das „überraschendste“ Ergebnis sei laut PsyPost, dass Menschen KI-generierte Tweets eher als von Menschen erstellt bezeichnen als Tweets, die tatsächlich von Menschen erstellt wurden.
„Die überraschendste Entdeckung war, dass die Teilnehmer die von der KI erzeugten Informationen oft eher als von einem Menschen stammend ansahen als die Informationen, die von einer tatsächlichen Person stammen. Das deutet darauf hin, dass KI Sie eher davon überzeugen kann, eine echte Person zu sein, als eine echte Person Sie davon überzeugen kann, eine echte Person zu sein, was ein faszinierender Nebenbefund unserer Studie ist“, sagte Germani.
Angesichts der rasanten Zunahme der Chatbot-Nutzung haben Technologieexperten und Führungskräfte aus dem Silicon Valley Alarm geschlagen, weil künstliche Intelligenz außer Kontrolle geraten und möglicherweise sogar zum Ende der Zivilisation führen kann. Eine der größten Sorgen, die von Experten geäußert wird, ist, dass KI dazu führen könnte, dass sich Desinformationen im Internet verbreiten und Menschen von etwas überzeugen, das nicht wahr ist.
Die Forscher der Studie mit dem Titel „Das KI-Modell GPT-3 (des-)informiert uns besser als Menschen“ untersuchten, „wie KI die Informationslandschaft beeinflusst und wie Menschen Informationen und Fehlinformationen wahrnehmen und mit ihnen interagieren“, sagte Germani gegenüber PsyPost.
Die Forscher fanden 11 Themen, die ihrer Meinung nach häufig anfällig für Desinformation waren, wie etwa die 5G-Technologie und die COVID-19-Pandemieund erstellte sowohl falsche als auch wahre Tweets, die von GPT-3 generiert wurden, sowie falsche und wahre Tweets, die von Menschen geschrieben wurden.
Anschließend versammelten sie 697 Teilnehmer aus Ländern wie den USA, Großbritannien, Irland und Kanada, um an einer Umfrage teilzunehmen. Den Teilnehmern wurden die Tweets vorgelegt und sie wurden gebeten, festzustellen, ob sie genaue oder ungenaue Informationen enthielten und ob sie KI-generiert oder von einem Menschen organisch erstellt wurden.
„Unsere Studie betont die Herausforderung, zwischen von KI generierten und von Menschen erstellten Informationen zu unterscheiden. Es unterstreicht, wie wichtig es ist, die Informationen, die wir erhalten, kritisch zu bewerten und auf zuverlässige Quellen zu vertrauen. Darüber hinaus würde ich Einzelpersonen ermutigen, sich damit vertraut zu machen diese neuen Technologien zu verstehen ihr Potenzial, sowohl positiv als auch negativ“, sagte Germani über die Studie.
Die Forscher fanden heraus, dass die Teilnehmer Desinformationen, die von einem Mitmenschen erstellt wurden, am besten erkennen konnten, als Desinformationen, die von GPT-3 geschrieben wurden.
„Eine bemerkenswerte Erkenntnis war, dass durch KI erzeugte Desinformation überzeugender war als die von Menschen erzeugte“, sagte Germani.
Die Teilnehmer erkannten auch eher Tweets mit präzisen Informationen, die von der KI generiert wurden, als präzise Tweets, die von Menschen geschrieben wurden.
Die Studie stellte fest, dass zusätzlich zu ihrer „überraschendsten“ Erkenntnis, dass Menschen oft nicht zwischen KI-generierten und von Menschen erstellten Tweets unterscheiden können, ihr Selbstvertrauen, eine Entscheidung zu treffen, während der Teilnahme an der Umfrage gesunken ist.
„Unsere Ergebnisse deuten darauf hin, dass Menschen nicht nur nicht zwischen synthetischem Text und organischem Text unterscheiden können, sondern auch ihr Vertrauen in ihre Fähigkeit, dies zu tun, erheblich abnimmt, wenn sie versuchen, ihre unterschiedlichen Ursprünge zu erkennen“, heißt es in der Studie.
Die Forscher sagten, dies liege wahrscheinlich daran, wie überzeugend GPT-3 Menschen nachahmen kann, oder die Befragten hätten möglicherweise die Intelligenz des KI-Systems zur Nachahmung von Menschen unterschätzt.
„Wir gehen davon aus, dass Einzelpersonen, wenn sie mit einer großen Menge an Informationen konfrontiert werden, sich möglicherweise überfordert fühlen und den Versuch aufgeben, diese kritisch zu bewerten.“ Infolgedessen versuchen sie möglicherweise weniger, zwischen synthetischen und organischen Tweets zu unterscheiden, was dazu führt, dass ihr Vertrauen in die Identifizierung synthetischer Tweets abnimmt“, schreiben die Forscher in der Studie.
Die Forscher stellten fest, dass das System sich manchmal weigerte, Desinformation zu generieren, manchmal aber auch falsche Informationen generierte, wenn es aufgefordert wurde, einen Tweet mit genauen Informationen zu erstellen.
„Obwohl dies Bedenken hinsichtlich der Wirksamkeit der KI bei der Generierung überzeugender Desinformation aufkommen lässt, müssen wir die Auswirkungen auf die reale Welt noch vollständig verstehen“, sagte Germani gegenüber PsyPost. „Um dieses Problem anzugehen, müssen umfangreichere Studien auf Social-Media-Plattformen durchgeführt werden, um zu beobachten, wie Menschen mit KI-generierten Informationen interagieren und wie diese Interaktionen das Verhalten und die Einhaltung von Empfehlungen für die individuelle und öffentliche Gesundheit beeinflussen.“
Die Post KI erscheint in den sozialen Medien menschlicher als echte Menschen: Studie erschien zuerst auf Fox News.