MENU

ChatGPTはなぜAI市場に波及しているのか? ~ガートナーのアナリストが指摘する躍進の理由、役割、危険性と問題点、企業がChatGPTの導入を成功に導く方策

OpenAIが対話型チャットボット「ChatGPT」の提供を開始したのは、2022年11月30日。それからわずか2カ月で、つまり史上最速でChatGPTは1億人のアクティブユーザーを獲得した。

発売以来、コードをデバッグする能力から大学生にエッセイを書かせる可能性まで、ChatGPTの可能性と危険性をめぐる議論が盛り上がっている。ガートナーではChatGPTがリリースされた直後の12月8日、VPアナリストであるバーン・エリオット氏を登場させ、ChatGPTがAI市場にすさまじい勢いで波及している理由、その役割、危険性と問題点、企業にとってのユースケースなどを聞いている。

それによれば、ChatGPT は高度なチャットボットであるが、他のAIシステムと同様に学習が必要であり、予測不能で偽情報を生成する機能を備えるため、その情報の誤りを許容または修正できる状況でのみ使用すべきであると指摘している。また導入の成否は、企業が自社にどのようなメリットをもたらすアプリケーションとして構築するかを正確に判断し、設計できるかどうかにかかっているという。

以下に、その内容の一部を紹介する。

― ChatGPTがこれほど話題を呼んでいる理由と、これまでの対話型AIとの違いは何か?

エリオット ChatGPTは、「チャットボット」と「GPT3」(注:2020年7月にOpenAIが発表した高性能な言語モデル)というホットなAIトレンドの融合体である。この2つを組み合わせることで、驚くほど人間らしく聞こえるコンテンツを制作し、対話する興味深い手法を提供している。それぞれは過去5年間、別々に開発されてきた技術であり、それらを大幅に改良した結果であると言える。

チャットボットは、一見すると「知的な」会話方法で対話し、GPT3は質問、コンテンツ、文脈を「理解」したかのような出力を生成する。これが融合して、「人間なのか、それともコンピュータなのか」という不可思議な効果を生み出す。あるいは、「人間そっくりのコンピュータなのか?」とも。この問いは時にユーモラスで、時に深遠で、時に洞察に富んでいる。

しかし残念ながら、その内容は時に不正確であり、決して人間らしい理解や知性に基づくものではない。問題は、「理解する」「知能を持つ」という言葉にあるのかもしれない。これらは暗黙のうちに人間に根差した言葉として使われるので、アルゴリズムに当てはめると、深刻な誤解を招く可能性がある。

チャットボットやGPTのような大規模言語モデル(LLM)は、特定のタスクを達成するのに有用なツールであり、決して「かくし芸」などではない。成功するかどうかは、この技術を使って組織にどのような利益をもたらすアプリケーションを構築するか、という判断にかかっている。

― ChatGPTの潜在的なユースケース、特に企業にとって有用なユースケースは何か?

エリオット チャットボットあるいは会話アシスタントは、情報ソースを活かして「意図された対話」を提供するものだ。すでにチャットボットには、顧客サービスから技術者の問題特定支援まで、多くのユースケースが存在する。

高度なレベルで言えば、ChatGPTは特定のチャットボットの使用例であり、GPTの情報ソースを使用しながらチャットボットで対話する、あるいは会話するのと同じである。この場合、GPTの情報ソースはOpenAIにより、特定の使用領域に向けてトレーニングされる。モデル上で使用されるトレーニングデータは、質問に対する回答方法を決定する。しかし前述したように、GPTは予測不能で偽情報を生成する機能を持つため、その情報は、誤りを許容または修正できる状況にのみ使用すべきである。

GPTのような基盤モデルには、コンピュータビジョン、ソフトウェア工学、科学研究開発などの領域で、数多くのユースケースが存在する。たとえば、テキストから画像を作成したり、スマートコントラクトなどの自然言語からコードを生成し、レビューし、監査する。さらにヘルスケア分野では、新薬の作成や病気分類のためのゲノム配列の解読にも使用されている。

― ChatGPTや他の類似したAIモデルを取り巻く倫理的な懸念には、どのようなものがあるか?

エリオット GPTのようなAI基盤モデルは、AI分野での大きなステップチェンジを意味する。つまりAI分野で大きな一歩を踏み出すもので、それぞれの領域に固有のモデルを作成するのに必要なコストや時間を大幅に削減できるなど、独自のメリットをもたらす。しかしその一方で、以下のようなリスクや倫理的な懸念が存在する。

◎複雑さ
大規模なモデルには、数十億あるいは数兆のパラメータが含まれる。このようなモデルは膨大な計算資源が必要なので、トレーニングするのは非現実的であり、コストがかかり、環境にも優しくない。

◎力の集中
これらの基盤モデルは主に、莫大な研究開発投資と優秀なAI人材を擁する最大手のテクノロジー企業によって構築されてきた。そのため、一部の資金力のある大企業にパワーが集中しており、将来的に大きな不均衡を生む可能性がある。

◎悪用される可能性
これらの基盤モデルはコンテンツ制作のコストを下げるので、オリジナルに酷似したディープフェイクの作成が容易になる。これには、音声や映像のなりすましからフェイクアート、さらには標的型攻撃までが含まれる。また倫理的に重大な問題があるため、評判を落としたり、政治的な対立を引き起こす可能性もある。

◎ブラックボックス的な性質
これらの基盤モデルには慎重なトレーニングが必要であり、ブラックボックス的な性質ゆえに受け入れがたい結果をもたらす可能性がある。ファクトベースモデルがどのような回答を引き出しているのかが不明瞭で、データセットに下向きのバイアスを生じさせる可能性がある。また、このようなモデルを均質化すると、単一障害点となる可能性がある。

◎知的財産
このモデルは、作成された作品のコーパスで学習されるが、このコンテンツが他の知的財産に由来する場合、その再利用についてどのような判例があるかはまだ不明である。

詳しい内容は、こちらから。

[I Magazine・IS magazine]