OpenAIの創立者が誤りだったと認める、AIをオープンにする理念 危険性を認識し大転換

テクノロジー

AI研究所OpenAIは、言語モデルChatGPTや画像生成AI DALL·Eを手がける非営利組織で、サム・アルトマン氏やイーロン・マスク氏らが2015年に設立しました。この組織の目的は、AI技術の悪用を防ぎ社会に友好的な形で発展させることです。しかし、創始メンバーであるイルヤ・サツキヴァー氏は、IT系ニュースサイト・The Vergeのインタビューで、AIをオープンにするという設立当初の理念は誤りだったと語りました。

2023年3月14日にリリースされた言語モデル「GPT-4」は、司法試験上位10%の成績を収めるなど、その性能と柔軟性でAIコミュニティを驚かせています。しかし、トレーニングデータの公開が不十分だという批判もあります。Nomic AIのベン・シュミット氏は、AIのバイアスや誤りを検討・修正するには、トレーニングデータの公開が必要だと主張しています。

サツキヴァー氏は、競争と安全性の観点からGPT-4のトレーニングデータを非公開にした選択を説明し、今後はより強力なAIが簡単に他者に損害を与えることができるようになるため、公表したくないと述べました。これはOpenAIの大きな方針転換であり、サツキヴァー氏自身がかつて「非営利団体としての私たちの目的は、株主ではなくすべての人のために価値を構築すること」と記していたことから、その理由が問われました。

サツキヴァー氏は、「私たちは、完全に間違っていました。もし皆さんが、私たちと同じようにAIやAGI(汎用人工知能)が信じられないほど強力になると信じるのであれば、オープンソースにするのは無意味で悪いアイデアです。数年もすれば、AIをオープンソース化するのは賢明ではないということが、誰の目にも明らかにGPT-4の詳細を非公開にするもうひとつの理由として指摘されているのが、法的責任です。言語モデルは膨大なテキストデータでトレーニングされますが、そのデータの多くはウェブスクレイピングによりインターネットから集められたものであり、著作権で保護されたものがデータセットに含まれている可能性があります。これは、言語モデルだけでなく絵画やイラストを学習した画像生成AIにも共通する問題です。

サツキヴァー氏は、「私の見解では、トレーニングデータはテクノロジーです。そうは見えないかもしれませんが、そうなのです。そして、トレーニングデータを公開しない理由はパラメータ数を公開しない理由とほぼ同じです」と述べました。しかし、OpenAIのトレーニングデータに著作権侵害によるものがあるかどうかという質問には、答えませんでした。

現在進行形でAIが急速に発展しつつある中、大手IT企業は自社製品にAIを取り込むことを急いでおり、しばしば安全や倫理に関する議論が置き去りになります。例えば、対話型AIのBing ChatはGPT-4がベースになっていることを明かしたMicrosoftは2023年3月に、AI技術に関するリスクの研究を専門としていた社内チームを解雇しています。

今後、AI技術の発展とともに、その透明性や倫理的な側面に対する懸念がさらに高まることが予想されます。OpenAIの方針転換が、AI研究や開発におけるオープンソースとクローズドソースのバランスや、法的・倫理的な問題についての議論を促すことになるでしょう。

この記事をSNSでシェア

コメント

タイトルとURLをコピーしました