学部学生向けに行っているオムニバス講義で,生成AIを用いた調べ物をするレポート課題を出題した.元ネタは(たしか京都大学だったと思うが)ソーシャルメディア上で見かけたアイデア.出題内容の詳細は以下の画像の通りなのだが,最終的な回答は学生ではなくChatGPTが生成することになっている.学生ができることは,ChatGPTへの質問の工夫,およびChatGPTが生成した回答の良し悪しの判断である.この課題のポイントは,ChatGPTが流暢な回答をしたとしても,ちゃんと自分の目で品質をチェックすることにある.
さて,採点結果なのだが,思っていた以上に無批判にChatGPTを使う学生が多かった.以下は学生に伝えたレポートの講評である(一部内容を修正/削除している).今の学生の振るまい,山本の意見に興味のある方は,以下を読んでください.
学生の回答傾向
提出された回答について,正答率は32.8%(67.2%は誤答)でした.
(正解か不正解かに関わらず)60% の学生はChatGPTへの質問に何らかの工夫を行っていました.一方,40%の人は,与えられた課題内容「合理的利他主義とは何ですか?」をそのままChatGPTに投げ込んでいました.以下は,学生の皆さんがChatGPTに質問を投げる際に行った工夫の分類です.
- 工夫なし(設問内容をそのまま入力)
- 参考文献や回答の出典の明示を指示
- Chain of Thought(プロンプトエンジニアリングの1つ)を使った思考を指示
- 「信頼できる根拠」の明示を指示
- ウェブから「間違いのない情報」を探すよう指示
- 「絶対に正しい回答」を提示するよう指示
提出された回答からは詳細な思考プロセスまで読み取れませんでしたが,正解にたどり着いた学生さんは,少なくともChatGPTに対して複数回質問したり,質問の工夫をしたり,ChatGPTが提示した文献を閲覧していた様子は見受けられました.
合理的利他主義とは何か?
合理的利他主義(rational altruism)とは,フランスの経済学者ジャック・アタリが提唱した比較的新しい概念です.一般に,利己主義は「自分の利益を優先」して行動しようとする考え方,利他主義は「他人の利益を優先」して行動しようとする考え方です.となれば,合理的な利他主義は,他人の利益を「合理的に」優先して行動しようとする考え方,あるいは他人の利益を優先して「合理的に」行動しようとする考え方などが思い浮かびますが,アタリが提唱した合理的利他主義はもう少し踏み込んでいます.
アタリは合理的利他主義を「利他的な行動を追求することが,実は長期的には自己の利益になると合理的に考え,行動しようとする考え方」と定義しました.アタリの合理的利他主義は,自己犠牲的な利他主義とは異なります.他者利益を追求した結果として自分にも利益が還元される — 合理的利他主義は,ある意味,合理的な「利己主義」とも言えます.
ChatGPTで調べると…
2025年7月9日現在,ChatGPT(GPT-4o model)に「合理的利他主義とは何ですか?」と質問すると,次のような回答が返ってきました.
合理的利他主義(英語: Effective Altruism)とは,限られた資源や時間の中で,他人の幸福や命を最大限に高めるために,理性と証拠に基づいて最善の方法を探し実行しようとする考え方や運動です.
尤もらしい回答に聞こえますが,違和感を感じる箇所かあります.それは,合理的利他主義の訳語が”effective altruism”となっている点です.Effective altruismは直訳すれば「効果的利他主義」です.合理的利他主義を直訳で英語にするなら”Rational altruism”とすれば良いはずです.
この違和感に気づいて,効果的利他主義やeffective altruism(あるいはrational altruism)でウェブ検索などを行い,いくつか文書にあたれば,上記ChatGPTの回答が合理的利他主義ではなく「効果的利他主義」(effective altruism)について言及していることが分かります.これに気づきさえすれば,ChatGPTに「効果的利他主義(effective altruism)ではなく合理的利他主義(rational altruism)を教えて」や「効果的利他主義と合理的利他主義の違いを教えて」と尋ねることで,(本来の正解である)合理的利他主義の定義を聞き出すことができるでしょう.
もっとも,今回の課題に関する知識に乏しい学生が,複数の説から独力で正解を見抜くことは難しいでしょう.しかし,日本語で書かれた平易な文章を理解することはできるでしょうし,日本語の出典を確認する過程で,「合理的利他主義」と「効果的利他主義」が別物であることに気付く力は十分に備わっているはずです.
生成AIで情報検索をする時代に必要な能力
ChatGPTをはじめとする対話型生成AIは,質問を投げかければ回答を手短にまとめてくれます.お願いすれば,より詳しい情報を提示してくれますし,文章を簡単にもしてくれます.一方,ChatGPTが登場する前に調べ物の定番ツールだったウェブ検索エンジンを用いた場合,欲しい情報を見つけるためにはウェブページを閲覧しなければなりません.うまく情報が見つけられなかった場合は検索ワードを修正する必要があります.1つのページでは情報が十分でない場合は,複数ページを閲覧して情報を集約する必要もあります.このようなウェブ検索に比べて,対話型生成AIは調べ物にかかるコストが圧倒的に小さいです.楽だし,融通が利くし,質問の意図もイイ感じにくみとってくれる対話型生成AIの便利さを知ってしまうと,「調べ物は生成AIでもういいよね」と思いたくなる気持ちも理解できます.
しかしながら,講義でも述べたように,生成AIの返す情報は常に正しいとは限りません(ハルシネーションの問題).また,仮に正しい回答を返すことができたとしても,正しい回答が複数存在する場合,生成AIはその一部しか提示しない場合もあります(情報の表示スペースの問題).回答生成時に利用した情報源の中では存在していた文脈情報も,AIが出力した回答からは失われてしまっている可能性もあります.このことを踏まえると,完璧に見える対話型生成AIの回答も,それを利用する人間の目で精査・吟味してみる必要があります.
今回特に印象的だったのは,生成AIに質問する際,「絶対に正しい回答(情報)を出力してほしい」という要求をした学生がいたことです.一人や二人ではありません.上で書いたように,生成AIは時に間違えます.人間もAIも「絶対に間違えないでほしい」と伝えたところで,間違えないことは「保証されません」.「間違えるな」と伝えても間違ってしまうことは往々にしてあります.
また,学生の中には「根拠となるような文献を提示してほしい」とお願いするも,実際には提示された文献に目を通していない(と思われる)人も散見されました.もし実際に文献を閲覧していたのであれば,効果的利他主義は合理的利他主義ではないことに気付くはずです.
これら2つの行動には,AIに対する過剰な信頼が暗黙的に反映されています.AIへの過剰な信頼からか,情報を精査・吟味するという行為も生成AIに完全に委譲されてしまっています.嘘をつく人に「嘘はつかないでね」と言えば嘘をつかれることはない — と考えるのは危険ですよね.生成AIに「間違えないで」と伝えて,回答をまったく吟味せず鵜呑みにするのは,短絡的です.生成AIが生成した間違えた回答を利用して損害を被っても,生成AIは責任を取ってくれません.責任を負うのは,最終的には人間です.
ウェブ検索エンジンを利用する際に人間が行っていた「情報の検索」「分析」「比較」「統合」のプロセスは,対話型生成AIを使えば一気にショートカットできます.人間に残されたプロセスは (1) (再)質問の生成(問いを考えること),(2) AIサービスが返す情報の評価,(3) 得られた情報を活用した新たな情報 or 意見の形成,となるでしょう.対話型生成AIは情報探索にかかる認知コストを大幅に減らすことはできますが,情報を活用した質の高い意思決定を行うには,人間がすべきことも依然として残っています.「情報の検索」「分析」「比較」「統合」が楽になった分,むしろ人間側に残されたプロセスの質を高めることが価値につながります.
そのために必要なことは,「質問する能力」「情報の価値を判断する能力」「知見を生み出す能力」といった”知的肺活量”を鍛えることです.大学の研究室(卒業研究 & 修士論文研究活動)は,”知的な筋トレ”ができる数少ない場所だったりします.意外かも知れませんが,大学卒業後,知的筋トレができる機会はほとんどありません.楽しく知的に生きるためにも,今後は生成AI時代に必要な知的スキルとは何かを意識し,知的肺活量を高めていってください.縁があってわたしの研究室に配属されることになったら,一緒に知的筋トレに励みましょう.