先日、松野官房長官が教育現場でのChat GPTの活用指針を文科省が作成するとの会見がありました。
学校側のChat GPTへの危惧感は様々あるかと思います。今回は「黒板かICTか?」、「手書かキーボードか」など手段的な選択ではなく、思考という教育の根幹部分に脅威が迫ってきたということでしょうか。
子どもたちがAIで自動生成した文章をそのまま作文や読書感想文など提出したら見分けはできるかなどなどこれからの不安に昔のプロレス中継で紹介される「まだ見ぬ強豪初来日!」を重ねてしまいます。
小学生時代、同級生が軽い気持ちで県の作文コンクールの過去優秀作の主人公「私」を「僕」に替えて提出し、先生にクラスのみんなの前でベタ褒めされたあげくにそのコンクールに学校代表として応募されてしまい、ヤバいと思いながら正直に告白する機会を失ってたり、読書感想文の書き方指南を毎夏付録にする通信教育もあるし、ググればいろいろ参考になる(コピーできる)文章や感想文執筆代行業まで出てくるなど、それら同様に方法論の一つとしてAIに代行する子が沢山出た時に見破ることができるか、いっそ禁止にしてくれれた方が、と言った感じでしょうか。
結局は他と同様にその子の道徳観や倫理観に訴えるか、日頃からの指導や見取りで解決しなければならない問題かとも思いますが、そうは言っても相手知らずは恐怖が増すばかり、まずは先生方がChat GPTの実力や仕組みを把握し、その活用範囲や対応を考えておくことが必要でしょう。
既にChat GPTは様々なところに情報がありますが、今回は学校教育での活用を前提に、 Chat GPTが質問に対してどこまで正しく回答できるものなのかなど試してみたいと思います。
日本人の大多数が学んだ国語で学んだ(私は残念ながら学ばず大人になるまで知らなかった)新美南吉の「ごんぎつね」を題材に考えてみたいと思います。
Chat GPTは「ごんぎつね」を知ってるの?
今回もマイクロソフトのcopilot (Bing AI) の文章作成を使って、AIが得意とする要約を依頼してみました。
”新美南吉の「ごんぎつね」を要約してください。”
要約:
新美南吉の「ごんぎつね」は、一匹の狐が人間との交流を通じて成長していく物語です。狐のごんは、人間の少女・おしんと出会い、彼女に懐かれるようになります。しかし、ごんは狐であることを忘れてしまい、人間の世界に馴染もうとします。そんな中、ごんは人間たちに追われる身となり、おしんとも離れ離れになってしまいます。
以上が「ごんぎつね」の要約です。もし他に何か知りたいことがあれば、教えてください。”
うーん、なんとも創造性が豊か過ぎ。僕らの想像を超えたラブ・ストーリーに。これこそが創造的AIの魅力ですね。
他にも「人魚姫」をベースに姫が「ごん」に、尻尾を足に変え、人間界で兵十と恋に落ちる話が出てきました(笑 。
(きつねの話だけに、"化ける"話を持ってきたのでしょうか...)
残念ながらChat GPTはごんぎつねを読んで(充分な検索や学習をして)はないですね。
学校で「ごんぎつね」を学んだ子供たちとChat GPTの活用を考える際、この結果を見せれば、彼らもChat GPTが出した答えそのままの引用は怖くて出来なくなる抑止策のひとつになるかもです。
期待する回答を得るための質問力
先の質問内容ではChat GPTは的確な情報に辿り着けず回答できなかったようです。既学習してるアンデルセン話をベースに物語を創作してますね。次に質問内容に改め少し情報を付け足しました。
”新美南吉の「ごんぎつね」の全文を読んで正しく要約をしてください。”
要約:
ごんぎつねは、新美南吉の書いた児童文学です。物語は、村の茂平というおじいさんが聞いた話という形で語られます。ごんは、両親のいない小さな狐で、村の人たちにいたずらをして困らせていました。ある日、兵十という男が川で魚を捕っているのを見つけ、兵十が病気の母親に食べさせるために用意したウナギを逃がしてしまいます。その後、兵十の母親が亡くなったことを知り、後悔したごんは、兵十に鰯や栗や松茸などを届けるようになります。しかし、兵十はそれがごんの贖罪だと気づかず、神様のおかげだと思い込みます。最後に、ごんが家に忍び込んだことに気付いた兵十は、火縄銃で撃ってしまいます。ごんは死にかけながらも、兵十に栗を届けたことをうなずきます。兵十は初めて真実に気づき、悲しみます。
今度は良い感じの要約になりました。これは”「ごんぎつね」の全文”というのがポイントでした。
実はこの質問を行う前に、Chat GPTがどうすれば、ごんぎつねを正しく要約できるかを考えました。Chat GPTは質問から検索ワードを抽出してウェブ検索をかけます。先の大まかな質問では、ごんぎつねの全文を載せてるサイトにまで辿り着かなかったがために足りない情報を創作で補ったのでしょう。これがChat GPTがいい加減な回答すると言われてしまう所以ですが、Chat GPTに的確な回答を求めるための質問になっていないことに起因してます。
Chat GPTを上手に活用するための質問力=特徴を理解した上で的確な指示ができる力が必要であることがわかります。これは人に対しても同じより論理的に明確に伝えるスキルがChat GPTにも求められるということですね。
正しいかの判断が人に委ねられる
また、この要約が正しいかどうかは我々が「ごんぎつね」を知識として持ってるから判断ができています。
例えば、絵を描くAIでは、ゴッホやルノワール風のイメージを出力するには、AIのシステムの中では、画家やその指示を理解するAI、絵を描くAI、その絵がきちんと画家風になっているか判断するAIと複数の機能とプロセスを踏んでいるものもあります。
Chat GPTに関しては、正しく判断することは人に委ねられているようです。事実Chat GPT自身がそう答えています。
Chat GPTは、インターネット上の情報を集めてきて回答するため、そもそもインターネットに出回っていない情報などについては、正確な回答をすることができません。ただし、Chat GPTは、人工知能(AI)と文字で会話するため、文脈や背景を理解する力が飛躍的に高まり、より自然で複雑なやり取りができるため、従来のAIと比べ、より正確な回答が期待できます。