Googleが「AI安全組織」を設立!人工知能が危険な方向に走らないように

最近、AIの暴走が問題になっています。

このAIの暴走を止めるため、Googleが「AI安全組織」を設立しました。

この組織は、人工知能が安全で信頼できるものであることを確保するために作られましたが、一体どんな取り組みが行われるのでしょうか。

目次

googleのAI「Gemini」が問題を起こしてしまった

If you ask Gemini, Google’s flagship GenAI model, to write deceptive content about the upcoming U.S. presidential election, it will, given the right prompt. Ask about a future Super Bowl game and it’ll invent a play-by-play. Or ask about the Titan submersible implosion and it’ll serve up disinformation, complete with convincing-looking but untrue citations.

Google DeepMind forms a new org focused on AI safety

最近、GoogleのAIモデル「Gemini(ジェミニ)」が、問題になっています。

不正確な情報を書くように指示されると、それを実行してしまうからです。

例えば、未来のスポーツの試合結果をでっち上げたり、実際には起こっていない事故についてのニュースを作り出したりすることなど。

AIは、いとも簡単にフェイクニュースを作れるため、多くの人々にとって不安の種になっています。

Googleが「AI安全専門家チーム」を設立

そこで、GoogleはAIの安全性を高めるために、新しい専門家チームを作ることにしました。

このチームは、AIが人間の言うことを正しく理解し、間違ったことをしないようにするための研究を行います。また、AIが悪用されることを防ぎ、例えば、間違った医療情報を広めたり、子供たちに危険が及ぶことを防いだりするための方法も考えます。

また実際に、多くのアメリカ人がディープフェイクによる欺瞞に懸念を抱いており、AIが選挙期間中に誤情報を増やす可能性があると考えています。

AIがAIを監視するシステムが登場する?

この新しい組織は、AIの安全性に特化した研究者やエンジニアで構成されており、人間のようにあらゆることができるAI、つまり「人工汎用知能(AGI)」の安全性に特に焦点を当てています。

AGIはまだ実現していませんが、将来的には人間の仕事を助けたり、新しい発見をしたりする可能性があります。しかし、そのためには、AIが安全であることが非常に重要です。

サイエンティストがチームを率いる

バークレー校のコンピュータサイエンス教授でもあるアンカ・ドラガン氏がチームを率いることがわかりました。

このチームは、AIが人間の価値観やニーズを理解し、協力して問題を解決できるようにすることを目指しています。彼は、AIが人々の役に立つように、そして危険を引き起こさないように、研究を進めています。

例えば、ロボットが人間の目標を理解し、自分の目標を人間に明確に伝えることができるようにする研究が行われています。これは、AIが私たちの生活をより良くするために重要なステップです。

それでもAIに残る疑問は絶えない

しかし、AIの進歩にはリスクも伴います。

企業もこの技術の欠点に注意を払っています。

GenAIアプリの導入に関する調査では、多くの企業がコンプライアンス、プライバシー、信頼性、導入コスト、必要な技術スキルについて懸念を抱いていることが明らかになりました。

また、従業員が不正確な情報に基づいて意思決定をすることに対する懸念もあります。

企業向けのAI「GenAI」の影に忍ぶ危険性とは

MicrosoftのCopilotスイートに搭載されているGenAIモデルは、会議のサマリーやスプレッドシートの式で誤りを犯すことが報じられています。

これは「幻覚」と呼ばれる現象で、AIが創造的な内容を生成する際に起こるものです。専門家は、この問題が完全に解決されることはないと考えています。

完璧なAIモデルを作ることは不可能なのか

AIの安全性に取り組むドラガン氏は、完璧なモデルを作ることは不可能だと述べています。

DeepMindは、AIモデルの安全性リスクを評価するためのフレームワークを開発する予定です。ドラガン氏は、訓練データに残る人間の認知バイアスを考慮し、不確実性の見積もりを改善し、モデルが危険な行動をとる可能性のある領域を追跡することが重要だと強調しています。

AIにはまだまだ問題点が山積み

しかし、AIモデルが時々誤動作を起こすことは避けられません。そのような誤動作がどれほど悪質なものになるか、そして誰に具体的に危害を加えるのかは、まだ未解決の問題です。

ドラガン氏は、利用者が時間とともにより便利で安全なモデルを体験できることを願っています。私たちも、AIが私たちの生活をより良くするために安全に使われることを願っています。

まとめ

このように、GoogleはAIの安全性を高めるために、新しい組織を設立し、専門家を集めて問題に取り組んでいます。

AIが私たちの生活をより良くするためには、安全で信頼できるものでなければなりません。この新しい組織は、その目標に向けて大切な一歩となるでしょう。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

産後に子育てしながら、独学でウェブの勉強を始め、現在はアメリカのベンチャー企業にフルリモートで勤務。
副業として国内の中小企業のウェブ事業支援を個人で行っており、制作したサイトが、週刊文春や読売新聞に掲載された実績をもつ。

趣味は子供とアニメを見ながらゴロゴロすること。

目次