「なぜ人類はAIの開発をやめないのでしょうか。私はやめた方が良いと思うのですが、先生はどうお考えですか。」
どうしてなんでしょうね。僕にもよくわかりません。
あるテクノロジーを開発することが将来的にもたらすベネフィットと、予測されるリスクを比べて、リスクの方が大きい場合には、テクノロジーの開発については抑制的であるべきだという考え方があります。「テクノロジー抑制主義(techno-prudentialism)」といいます。prudential というのは、「慎重な、最新な、分別のある、万全を期する」という意味の形容詞です。核兵器の開発などがこれに当たります。どう考えても核兵器の「使い勝手」がよくなったことで人類が享受しうるベネフィットと、人類が冒すリスクでは、リスクの方が高いことは確実ですから。それでも人類は核兵器を手離しませんし、核ミサイルの精度や速度を上げることに依然として多くの資源を投じています。
AIも核兵器と同じだと思います。AIがもたらす利便性と、AIがもたらすネガティヴな影響を比べたら、ネガティヴな影響の方が明らかに大きそうです。それなら開発を止めたらいいのに、どこも止める様子はありません。いくつかの企業がすさまじい金額の投資を行って、AI市場の独占を狙っています。OpenAI(ChatGPT)、Anthropic(Claude)、Google(Gemini)、xAI(Grok)などなど。いずれどこかの企業が市場独占を果たして、全人類が同じAIを利用する・・・というあまり想像したくない状況が到来しそうです。
いま、大学の先生たちと話をすると、必ずAIの話が出ます。レポートの多くを学生たちはAIに丸投げして、それを提出してくる。そういう場合、自分で書いたレポートのはずなのに、本人に読ませてみると「読めない漢字」がある。内容を要約させると、自分で書いたはずのレポートの内容を理解していない。そういうことがしばしばあるそうです。困りましたね。
ですから、課題を出してレポートを書かせるということ自体が、今や教育活動として意味をなさなくなってきている。卒論をAIに書かせている人はもうたくさんいるでしょう。そのうち博士論文をAIに書かせて学位を取る人も出てくるかも知れません。
AIの開発は止められない。止めるとしたら、世界同時に止めるしかありませんが、どこか一つの企業が「抜け駆け」で開発を続けたら、そこがいずれ市場を独占することになる。だから、秘密裡に開発を続けるところが必ず出てきます。私企業がやることをすべて止めるわけにはゆきません。
われわれにできることは、AIがもたらす破壊的な影響をどうやって最小限にとどめるか、です。
でも、どうしたらいいんでしょうね。大学の場合だと、とりあえずは「レポートを課さず、学生を教室に集めて、教師の眼の前で、手書きで答案を書かせる」ということくらいしか対策を思いつきません。
こんなのはそれほどシリアスな話ではなくて、ほんとうに深刻なのは、AI導入による「雇用の消失」です。
自動運転の開発にAmazonのジェフ・ベゾスは巨額の投資をしていますが、これが実用化されたら、トラックやバスやタクシーのドライバーは失職します。米国では300万人が失業するという予測が示されています。
医師や弁護士のような専門職でも、「大量のデータを読み込んで、情報を検索する」という仕事はAIに丸投げできますので、かなり多くの仕事が失われます。先日お会いしたお医者さんはCTやMRIの画像を見て診断を下す仕事が専門だそうですけれど、この仕事もあと数年以内にAIに代替されるので、自分が経験を通じて会得した専門的な知識と技術は無価値になる・・・と嘆いていました。
それ以外にどの業種が、どれくらいの規模で、いつ「雇用消失」に遭遇することになるのか・・・これは今のところ誰にも正確には予測できません。「ホワイトカラー」と呼ばれるデスクワークのかなりの部分はAIで代替可能ですから、求人が減ることは確実です。みなさんが大学を卒業するころは就活がたいへんになるということです。
今欧米では、配管工とかタイル工とかとび職とか、「ブルーカラー」の年収が急騰しているそうです。それはこれらの仕事はAIやロボットでは代替できないからです。もちろん「とび職ロボット」だって作ろうと思えば作れるのでしょうが、そのコストと人間を雇う賃金を比較したら、人間を雇う方が圧倒的に安い。それなら開発する必要がない。そういうことだと思います。
なんだか切ない話になってしまいましたね。でも、AIに代替できない仕事は探せば一杯あります。僕は合気道という武道を教えていますけれども、これはAIでは代替できないと思います。AIには身体がありませんから。身体が経験する微細な変化を感知して、言語化して、訓練法として体系化する...という創造的な作業は機械にはできない。
それから「こういう文章」を書くのも、たぶんAIにはできないと思います。
「こういう文章」とはどういう文章かというと、「何を書くつもりなのか自分でもよくわからないままに書き始めて、書いているうちにだんだん何を書きたいのかわかってくる」ような文章です。手探りで書いている文章です。書きながら書き手自身が変化する文章と言ってもよい。書くというのはそういうことなんです。自分が書いた言葉を読んで、書き手自身が「ああ、私はこんなことを考えていたのか」と納得するということが起きる。自分が書いた言葉にひきずられて、「そんなことを書くつもりがなかったこと」を書いてしまうということも起きる。
書くというのは、そういう生成的なプロセスなのですが、AIはデータを一望俯瞰して一気に序論から結論まで書くことができるので、書き出した時の不完全性が書きながら修正され、「無知」が充填されるような文章はたぶん書けないと思います。
でも、そのうちに「バカのふりをするAI」もできるかも知れませんから。先のことはわかりません。
というわけで、しばらくはAIのもたらす悪影響をどう阻止するのかについてひとりひとりで工夫するしかなさそうです。お役に立てずにすみません。
(2026-04-22 10:52)