今のAIって意外とつまらない
はじめに断っておきますが、これはあくまでも個人の感想です。それもきわめて表面的で、十分な吟味に基づくものではありません。よく知る人は、使い方に問題があると看破できることも多いと思いますが、この1年、おつきあいした印象を書いてみます。
幻覚を見るAI
2022年の11月にChatGPTが登場し、AIが人間社会に本格的に導入できるレベルになった!と話題になって1年が経過しました。昨年の今頃はいろいろと試行錯誤をしてみて、期待して良いことと期待すべきでないことを知ろうとしていました。まず最初に息を吐くように嘘をつくChatGPTに驚きました。これはハルシネーション(日本語で幻覚!)と呼ばれている現象で、たまに起こるとされていますが、僕個人の感想としてはしばしば起こりました。
あるとき、指導している学生のために先行研究についてChatGPTに質問してみたら、面白い研究を紹介してくれました。そこで出典を尋ねました。どんどん出てくるので調子にのって頼んでいるうちに、2023年、2024年と未来の文献が出てきて「騙された」ことが分かりました。後で調べると文献情報はすべてハルシネーションの産物でした。大事なところでは使えないなあと痛感したと同時に、社会のミスインフォメーション、ディスインフォメーションがこれで悪化する懸念を感じました。そしてChatGPTの発言の裏をとるのにかかる時間がバカになりませんでした。ChatGPTとやりとりしている時間の何倍もかかりました。自分の専門領域の質問をすると間違いがすぐ分かるので、裏を取る時間はかかりませんが、その領域は聞く必要はない。知らない領域だから聞きたいのに、ファクトチェックにかかるコストが大きすぎました。
AIは人工知能すなわち人間以外の知的存在という扱いなので、そう頻繁にハルシネーションしてもらっては付き合えない。知能が高くて医師免許の国家試験などに合格してしまうくせに、きっかけもわからず幻覚を見て、根拠のないことを平然と言ってしまう存在というのは、やっかいです。友達だったらどうでしょうか?まず病院に行かせるでしょう。幻覚が治るまでは、かなり言動には警戒してつきあわないといけない難しい存在です。現在は「存在する文献に基づいて述べよ」などとプロンプト・エンジニアリング(AIを賢く使うための質問の工夫)することで、かなりハルシネーションは抑制できるようになったということです。
いろいろな生成AIを使ってみた
その後ChatGPTだけでなく、翻訳をするもの、静止画や動画を生成するもの、音楽を生成するもの、文献検索をするものなどいろいろな可能性をゼミ生と一緒に試してみました。タイパ(タイムパフォーマンスあるいは時間効率)をあげる道具として有用な場合がたくさんありました。例えば、学生が1週間で作ったビデオ作品(図、爽やかな飲料の宣伝用)などは、一から全部自分たちで作ろうとした場合、シナリオ、作曲、演奏、描画、撮影、映像編集技術、などなど、要素技術の習得にはそれなりに時間がかかるので、半年かけても同じクオリティのものができたかどうか怪しい。嘘でもかまわない映像作品のシナリオや、歌詞などはファクトチェックを要しないし、機械翻訳の品質はかなり良くなっていて、間違いがいくらかあったとしても、自分で辞書をひきながら読むよりも、圧倒的に内容理解を助けてタイパを上げてくれました。
生成AIを使ってできた作品たちはどこかで見たことのあるような感じがしました。機械学習は、既存の作品をたくさん学習して、そこから連想して作品を作るので、それはある意味当然のことです。そのために、アーティストの中には自分の作品のイミテーションをたくさん生成されてしまい、著作権訴訟を起こしている人があります。オリジナルの作品を作る人たちの努力と価値を簡単に下げてしまう存在とは、果たして良いものなのか?作品が退屈かどうかを通り越して害悪でもありえます。
3年ゼミの学生たちは、何度か生成AIを試してみた後、あまり使わなくなってしまいました。どうしてか聞くと「AI相手に壁打ちをするには良いかもしれないが、それ以外の使い方はあまり思いつかない」という学生がありました。慧眼だなと感心しました。例外的に、映像作品コンテストに出すものをAIを使って作ろうというグループが1つできました。シナリオをChatGPTに頼み、それに従って一部を実写映像、一部をAIによる生成映像にしようとしていましたが、彼女らが制作していた2023年の夏前の状況では、動画生成AIは彼女たちの期待に応えられるレベルまで成長していませんでした。
ChatGPTのようなLLMと呼ばれる言語モデルも、何を言うかを、人間の言語的なやりとりの膨大なデータから統計的にありそうなものとして生成しています。AIに人格があって考えているようにも思えますが、言ってみれば、不特定多数の人間の言語コミュニケーションの中でありそうなことをオウム返ししているだけです。だからそもそも正しいとは限らない。比較的多くの人がこのように言っている、と教えてくれる感じになります。学習した内容に依存するので、専門的な内容で比較的コンセンサスが取れてぶれの少ない領域では正確な回答をするだろうし、そうでない内容については精度は下がる。医師の免許試験のような領域はもっとも適切に生成する得意分野でしょう。
AIが女性を差別する!?
社会に存在するデータから学んだAIは、当然社会の中に潜在する課題もそのまま身につけています。商業ベースになっているAIの顔認識システムでも、白人男性を対象にすると十分な精度があるのに、黒人女性では1/3程度しか正しく認識しないという有名な事例があります(1)。アマゾンが採用人事にAIを使おうとしたところ、女性を不利に扱うことが分かってAIの利用を中止しました(2)。これは2018年のことですが、2019年にはアップル・カードが女性を差別しているとして問題になりました。前者はAIが性別データを利用していましたが、後者は性別データを利用していませんでした。AIは性別データがなくても性別と密接に関連した情報を利用して不当な性差別をしました(3)。AIは最先端の知的存在なので、人種を理解し、性別、障害や年齢による差別をしないという倫理的枠組みを当然もっているはずだ!と期待します。しかし、現実は学習データに内在された差別を露呈してしまい、AIは意外とやっかいな存在になりえます。対策も多方面でとられ始めました(4)。学習データに内在する差別を技術的に取り除くことが可能であれば、AIは社会よりも先に差別のないサービスを提供してくれる可能性もあり、期待できます。人間が差別のない社会制度を作っていればAIはそもそも差別を学習することがなかったはずです。AIだけにまかせずに、社会改善もどんどん進めていく必要がありますね。
学生が作る機械学習モデル
ちなみに、3-4年の学生たちが研究の中で統計分析の1つとして使う重回帰分析は機械学習の手法の1つです。学生たちが自分で集めたデータを学習して、データを説明するモデルを出してくれます。具体的なイメージでは、例えば、動画コンテンツにおいて画像と音声を変えて受ける印象がどう変化するかを調べたいときに、目的の印象を作るのにどのように画像と音声を変えればいいか分かるモデルを実験・調査データを機械学習させて求めるというような感じです。操作としては、SPSSという統計ソフトに得られた実験データを入力して、手順にしたがって操作するとPCがモデルのパラメータを示す表を何個か出してくれるという感じです。上で書いてきた大規模な生成AIと違って、この機械学習はデータの統制がしっかりしているので、ハルシネーションは生じにくい。大規模生成AIと比べること自体がナンセンスですが。この小規模な機械学習も現実の人間のデータを学習させるので、そこに性差の要素があればそれをそのまま反映します。
明日はきっと良くなる、良くする
というわけで、振り返ると、生成AIについては期待と落胆が入り混じった1年になりました。AIは意外とつまらなくて、問題も多いというのが今の印象です。が、ここでAIを見放すのはとても危険です。AIの成長はまさに日進月歩ですので、明日はきっと違っています。AI抜きの未来はありえないので、引き続き目が離せません。希望をもって学び・関わりつづけるのが得策に違いありません。
文献
- (1)Larry Hardesty (2018) Study finds gender and skin-type bias in commercial artificial-intelligence systems. MIT News
- (2)ロイター(2018) 焦点:アマゾンがAI採用打ち切り、「女性差別」の欠陥露呈で
- (3)ケリー, オフチニコフ, ハインリッヒ, & ハードゥーン (2023) AIに性別データを知らせることは、正しいアルゴリズム構築につながる. Harvard Business Review
- (4)高野 辰也 (2023) AIの公平性~差別のないAI社会の実現に向けて~. 第一生命経済研究所