2023年10月7日

生成AIの利用はネット検索と変わらない

生成AIの原理とその限界


人工知能(AI)に関する議論が盛んになっている。特に、与えられた質問に対して柔軟且つ自然な受け答えを可能にした「ChatGPT」が2022年11月に発表されてからは、まるで映画『2001年宇宙の旅』(2001: A Space Odyssey)に登場する人工知能HAL 9000のごとき技術が実現したと言わんばかりの盛り上がりである。

あらためて生成AIの仕組みを確認しておくと、これは大規模言語モデルと呼ばれるプログラムが原理となっている。言語モデルの身近な例は、ある単語の後に関連度の高い語を次々と並べていく日本語入力の予測変換が知られている。これを更に精緻化したものが大規模言語モデルである。例えば「ChatGPT」で用いられているアルゴリズム「Transformer」は、ベクトルの内積計算を応用するかたちで、あらかじめ読み込んでおいた大量のデータに含まれる単語同士の関連度合いを測り11. 「ChatGPTの教科書」、『ニュートン』、第43巻第10号、2023年10月、20―21頁。、「『ある単語の次に用いられる可能性が確率的に最も高い単語』を出力することで、もっともらしい文章を作成していく」22. 日本ディープラーニング協会「生成AIの利用ガイドライン【条項のみ】」第1.1版、3頁(2023月10月7日閲覧)。

\[ \vec{ \mathstrut a } \cdot \vec{ \mathstrut b } = \vec{ |\mathstrut a| } \vec { |\mathstrut b| } \cos \theta \] 「Transformer」では、単語ベクトル同士の内積を計算することで、意味の近さを判定する

ゆえに、生成AIの出力結果は徹頭徹尾、統計的推論(statistical inference)に留まるということになる。何らかの根拠や確信に基づいて判断を下しているわけでは決してないから、その出力結果に誤謬や虚偽が含まれていたとしても何ら驚くには値しない。出力までの処理の過程で誤るということもあろうし、そもそも学習させた内容に誤りがあるということも考えられる。

したがって、我々が生成AIを利用する上での心構えとしては、学生のレポートをチェックする大学教員の姿勢が大いに参考になろう。すなわち、呈示された内容に誤りや盗用があるかもしれないから、常に懐疑の念を持って接する必要があるということである。こんなことは、AIが日の目を見る前から、ネット検索の注意点として散々言われてきたことではないだろうか。

 

1. 「ChatGPTの教科書」、『ニュートン』、第43巻第10号、2023年10月、20―21頁。
2. 日本ディープラーニング協会「生成AIの利用ガイドライン【条項のみ】」第1.1版、2023年10月、3頁(2023月10月7日閲覧)。



過去の記事