AIの大惨事を回避するには、規制当局は信頼できるAIを確保する必要があると専門家が議員に語る – DNyuz

To Avoid An AI Catastrophe, Regulators Must Ensure Trustworthy AI, Experts Tell Lawmakers

AI の最大のチャンスと最大の危険は、軍事と同様に民間世界でも同じであり、それは真実を明らかにしたり覆い隠したりする可能性です。 その力は、公正な選挙と不公平な選挙、あるいは戦闘における生死を分ける可能性があります。

火曜日、AIの主要な革新者たちが議員の前に姿を現し、新しいツールが混乱を引き起こし、人々を欺くために使用されているにもかかわらず、どのように投資家やメーカーに価値をもたらしているかについて議論した。

一方で、新しい人工知能ツールは次のような用途に役立つだけでなく、 エッセイを書く ただし、ある種の先見性のためです。 ハーバード大学とマサチューセッツ工科大学の研究者グループは最近、生成的な AI モデルは予測できる、世論調査よりも正確には、人々が消費するメディアに基づいてどのように投票するかです。 クリアスピードの製品は米軍、保険会社、その他の顧客によって使用されており、感情分析を使用してインタビュー対象者が「はい」または「いいえ」の質問に誠実に答えているかどうかを判断する AI ツールを提供しています。 同社で政府関係を管理する元海軍特殊部隊のスティーブ・ウィソツキ氏は語った。 ディフェンスワン この技術は、米国軍とアフガニスタン軍が内部関係者の脅威を検出できるようにするために開発されました。 ウィソツキー氏によると、多くの新しいデータのおかげで同社はモデルを改良し、10未満の質問に基づいてインタビュー対象者が嘘をついている「リスク」を97パーセント以上の精度で正確に特定できるようになったという。

しかし、真実を曖昧にするための AI の使用も増えています。 神経科学者、作家、起業家であるゲイリー・マーカス氏は、議員への証言で、すでに利用可能なシンプルなツールによってもたらされる潜在的な脅威について説明しました。 「彼らは、人類がこれまで見たことのない規模で説得力のある嘘を作り出すことができ、そしてこれからも作り出すでしょう。 部外者は選挙に影響を与えるために彼らを利用し、内部者は市場や政治システムを操作するために利用するでしょう。 民主主義そのものが脅かされている。 チャットボットはまた、ひそかに私たちの意見を形成し、潜在的にソーシャルメディアの能力を超えます。 AI 企業が使用するデータセットの選択は、目に見えない大きな影響を及ぼします。 データを選択する人は、微妙だが強力な方法で社会を形作るルールを作ることになる。」

人気の新ツールChatGPTの開発者であるOpenAIを設立したサム・アルトマン氏は議員らに対し、「私が最も恐れているのは、テクノロジー業界が世界に多大な損害を与えていることだ…それが私たちが会社を設立した理由だ」と語った。 それが私が今日ここにいる理由の大きな部分を占めています。」

軍が幅広い分野で AI を活用しようとしているにもかかわらず、一部の主要な軍関係者は、AI ツールの信頼性についてこうした懸念を共有しています。

米特殊作戦軍の科学技術部長リサ・サンダース氏はこう語った。 ディフェンスワン、 「無視することはできません [tools like ChatGPT] なぜなら…魔神が瓶から出てきたからです。」

将来のグレーゾーンでの効果的な運用とは、「環境が望むよりも早く、私ができるかもしれないよりも早く、グラウンド・トゥルースを発見すること、つまり…より早く、高い確実性のグラウンド・トゥルースに到達する、そのような超能力」を意味するでしょう。一般人だ」とサンダース氏は語った。 ディフェンスワン フロリダ州タンパで開催されたグローバルSOFイベント中の独占インタビューで語った。 。

ソーコムは センサーデータ、オープンソースデータ、人工知能の融合に取り組んでいます グレーゾーン環境のオペレーターを支援します。 特別なメガネやヘッドフォンを着用しているSOF部隊は、地元住民の感情をよりよく把握し、インターネットに接続された翻訳機なしで言語を理解し、基本的にさまざまな出来事を予測します。 しかし、そのようなツールが信頼できなければ、資産から負債に変わる可能性があります。 サンダース氏は、主な懸念は「自分が下した結論、または生のデータソースをどのように検証するか」であると述べた。

真実を検証するという仕事は、ソフトウェアを作成し、導入前にデータを構造化した国内の誰かにだけ委ねられるわけではありません。 その一部は、紛争または潜在的な紛争の瞬間に、オペレーターまたはそのチームに帰属します。 では、完璧にしか見えないツールに対してオペレーターに過信を与えずに、緊張した瞬間に製品を使用できるほど十分な信頼をユーザーに与えるにはどうすればよいでしょうか?

サンダース氏は、特別なオペレーターは「これらのアルゴリズムを理解し、微調整する必要がある」と述べた。特に、その多くが非軍事的、非国家安全保障の背景から来ていることを私たちは知っているからである。 固有の偏見が存在することになります。 では、それらのバイアスが私たちを調整する必要のある道へと導いているのかを確認したり、私たちが発しているバイアスを特定したりできることは重要だと思います。科学者をずっと同行させずにどうやってそれを行うのでしょうか? エンドユーザーとして、私たちの使命を果たすためにツールを適切に利用するには、どうすればそのツールに対する自信と信頼を得ることができるのでしょうか?」

しかし、これらの「非軍事的、非国家安全保障的背景を持つ」企業に安全で十分に精査された製品を生産するよう依存することは、議会がそのモデルが実際にどのように機能するのか、どのようなデータがそのモデルに組み込まれるのかを率直に説明するよう強制できない限り、良い考えとは言えません。 。 議会はまた、外部の政府機関や独立した研究者がそれらを評価できるようにする必要がある、と専門家が火曜日に証言した。

OpenAIのアルトマン氏は、米国がAIツールの開発を監視するため、おそらくIAEAに似た国際監視組織の創設を推進するよう提案した。 同氏は、米国政府が基準と認可機関を設立することを提案した。 AI ツールを悪用したり、公衆にリスクをもたらしたりする企業は、製品の使用または開発のライセンスが取り消される可能性があります。

テクノロジーコミュニティの誰もがそのアイデアを気に入っているわけではありません。 日曜日、グーグルの元最高経営責任者(CEO)で現在は経営者のエリック・シュミット氏が語った。 防衛に焦点を当てた秘密のベンチャーファンド提案された Google や Microsoft のような企業規模の AI は複雑すぎて、業界以外の誰にも効果的に規制できないということです。

しかし、もう一人の元Google社員、メレディス・ウィテカー氏は、 押し戻された Twitterでは「規制当局が有効にしているにもかかわらず、テクノロジー業界が自らを取り締まることに失敗したことが、私たちが今の地位を築いた経緯である。 Google で 13 年以上働いた者としてこれを言います。 合理的な口調で利己的な発言をする権力者に騙されないでください。」

神経科学者のマーカスも同様の嘆願を口にした。最悪のAI濫用を避けるために、米国政府はデータソースやアルゴリズムの説明可能性を緊急に規制し、政府および民間の一般的な監視を提供する必要がある。

「大手テクノロジー企業が好む計画の要点は、「私たちを信頼してください」ということです。 しかし、なぜそうすべきなのでしょうか? 危険にさらされている金額は気が遠くなるだろう」と彼は語った。 「ミッションは漂流する。 OpenAI の当初のミッション ステートメントでは、「私たちの目標は、経済的利益を生み出す必要性に制約されず、人類全体に最も利益をもたらす可能性が最も高い方法で AI を進歩させることです」と宣言されていました。 7 年後、彼らは主に Microsoft の恩恵を受けており、日常的に物事をでっち上げている検索エンジン間の壮大な戦いの一部に巻き込まれています。 そのため、アルファベットは製品を急いで投入し、安全性を重視しなくなった。 人類は後回しになってしまったのです。」

ポスト AIの大惨事を回避するには、規制当局は信頼できるAIを確保する必要があると専門家が議員に語る 最初に登場したのは ディフェンスワン

Loading...