人工知能が生成したテキスト ソーシャルメディアでは、実際の人間が書いたテキストよりも人間らしく見える可能性があることが研究で判明した。
OpenAI の非常に人気のある ChatGPT などのチャットボットは、ユーザーからのプロンプトに基づいて人間の会話を説得力を持って模倣することができます。 このプラットフォームは昨年爆発的に使用され、人工知能の転機となり、一般の人々が学校や仕事の課題を手伝ったり、夕食のレシピを考えたりできるボットと会話するための簡単なアクセスを提供しました。
科学雑誌『サイエンス・アドバンス』に発表された研究を支援する研究者ら。この研究は米国科学者協会の支援を受けている。 科学の進歩らは2020年にOpenAIのテキストジェネレーターGPT-3に興味を持ち、人間が「ツイートの形で構造化された偽情報と正確な情報を区別できる」かどうかを明らかにし、ツイートが人間によって書かれたのかAIによって書かれたのかを判断することに取り組んだ。
サイポストによると、研究著者の一人、チューリヒ大学生物医学倫理・医学史研究所のフェデリコ・ゲルマーニ氏は、「最も驚くべき」発見は、人間が実際に人間が作成したツイートよりも、AIが生成したツイートを人間が作成したとラベル付けする可能性が高いことだと述べた。
「最も驚くべき発見は、参加者は AI によって生成された情報を、実際の人間によって生成された情報よりも人間からのものである可能性が高いと認識することが多かったということです。 これは、現実の人間があなたに現実の人間であることを確信させるよりも、AI があなたに現実の人間であることを確信させることができることを示唆しており、これは私たちの研究の興味深い副発見である」とゲルマーニ氏は述べた。
チャットボットの使用が急速に増加するにつれ、テクノロジーの専門家やシリコンバレーのリーダーたちは、人工知能がどのように制御不能になり、おそらく文明の終焉につながる可能性があるかについて警鐘を鳴らしています。 専門家たちが繰り返し表明する最大の懸念の 1 つは、AI によってどのように偽情報がインターネット上に拡散し、人間に真実ではないものを信じ込ませることができるかということです。
「AIモデルGPT-3は人間よりも私たちに(不)よく情報を提供する」と題されたこの研究の研究者らは、「AIが情報環境にどのような影響を与え、人々が情報や誤った情報をどのように認識し、相互作用するのか」の調査に取り組んだとジャーマーニ氏はPsyPostに語った。
研究者らは、5G テクノロジーや 新型コロナウイルス感染症(COVID-19)のパンデミック、GPT-3によって生成された偽のツイートと真実のツイート、および人間によって書かれた偽のツイートと真実のツイートの両方を作成しました。
次に、米国、英国、アイルランド、カナダなどの国から 697 人の参加者を集めて調査に参加させました。 参加者にはツイートが提示され、そのツイートに正確な情報が含まれているか不正確な情報が含まれているか、またそれらが AI によって生成されたものなのか人間によって有機的に作成されたものなのかを判断するよう求められました。
「私たちの研究では、AI によって生成された情報と人間によって生成された情報を区別するという課題が強調されています。 これは、受け取った情報を批判的に評価し、信頼できる情報源を信頼することの重要性を強調しています。 さらに、個人の皆様には、次のことをよく理解していただくことをお勧めします。 把握すべきこれらの新興テクノロジー ポジティブな面もネガティブな面も含めて、彼らの可能性は大いにあります」とゲルマーニ氏は研究について語った。
研究者らは、参加者はGPT-3によって書かれた偽情報よりも、仲間の人間によって作成された偽情報を判断するのが最も得意であることを発見した。
「注目すべき発見の1つは、AIによって生成された偽情報の方が、人間によって生成された偽情報よりも説得力があるということです」とゲルマーニ氏は述べた。
また、参加者は、人間が書いた正確なツイートよりも、AI が生成した正確な情報を含むツイートを認識する可能性が高かった。
この研究では、人間はAIが生成したツイートと人間が作成したツイートを区別できないことが多いという「最も驚くべき」発見に加えて、調査中に判断を下す自信が低下したと指摘した。
「私たちの結果は、人間は合成テキストと有機テキストを区別できないだけでなく、異なる起源を認識しようとすると、区別できる能力に対する自信も大幅に低下することを示しています」と研究では述べられています。
研究者らは、これはおそらく GPT-3 がいかに説得力をもって人間を模倣できるか、あるいは回答者が人間を模倣するための AI システムの知能を過小評価していたためであると述べた。
「私たちは、個人が大量の情報に直面すると圧倒されてしまい、それを批判的に評価することを諦めてしまう可能性があると考えています。 その結果、彼らは合成ツイートとオーガニックツイートを区別しようとする可能性が低くなり、合成ツイートを識別する自信が低下する可能性がある」と研究者らは研究の中で述べている。
研究者らは、システムが偽情報の生成を拒否することもあったが、正確な情報を含むツイートを作成するように指示された場合には偽情報を生成することもあったと指摘した。
「説得力のある偽情報を生成するAIの有効性について懸念が生じていますが、現実世界への影響を私たちはまだ完全には理解していません」とジャーマーニ氏はPsyPostに語った。 「これに対処するには、ソーシャル メディア プラットフォームで大規模な研究を実施し、人々が AI によって生成された情報とどのように相互作用するか、そしてこれらの相互作用が個人の行動や個人および公衆衛生に関する推奨事項の順守にどのように影響するかを観察する必要があります。」
ポスト AIは実際の人間よりもソーシャルメディア上でより人間らしく見える:研究 最初に登場したのは フォックス・ニュース。