先日、数理工学者の甘利俊一先生の対談動画を視聴しました。先生は1967年に現在のディープラーニング技術の基盤となる「多層パーセプトロンの確率的勾配降下法」という理論を提唱した、人工知能研究のパイオニアです。90歳を迎えようとする2025年の今もなお、様々なメディアで人工知能研究の今後の発展について発信されており、そのバイタリティに感服しました。
この動画では、人工知能(AI)が「信念」を持つ可能性や、そうなった場合のリスクについて話されており、非常に興味深く拝聴しました。また、考えることをAIにゆだねてしまう危険性についても言及されていました。
私自身「AIは補助的なもので、考えているのは自分だ」と考えてAIツールを使っているつもりです。しかし、徐々にAIツールの出力を盲目的に正しいと思ってしまう場面が増えていることも自覚しており、このような傾向が続くことによって、知らず知らずのうちに人類全体の知能レベルを退化させ、人間を「家畜化」させてしまうという指摘も現実のものになるのではないか、と考えさせられてしまいます。
また、AIが「意識」や「信念」を保有していると人間が思い込んでしまう現象についても言及されていました。AIが特定の「信念」を持っていると認識されれば、それを正しいものとして暴走する可能性があります。独裁国家や指導者が、自分たちと同じ「信念」をAIに持たせれば、核兵器以上の文明崩壊リスクを孕む可能性もあるのではないかと考えさせられます。
それに対抗するためには、やはり、人間側も進化することで、社会全体で人工知能(AI)をうまく使いこなせるようになっていかないといけないのだろうと思います。そのためには動画の最後に話されている通り次の世代への「教育」が重要になるのではないかと感じました。
最後に、AIの発展を憂慮しつつも、好奇心を忘れていない甘利先生の姿に、生粋の研究者としての情熱を垣間見ました。私は研究者ではないですが、先生のような年齢の重ね方も素敵だなと感じます。また、ファシリテーターの竹下隆一郎さんが、しっかり先生の想いを受け止めつつスムーズな進行をしている点も素晴らしいと思いました。


