人間存在とAIの倫理──「第三のAI」が開く新しい知の扉(ChatGTP)
AIの進化が加速する現代、私たちはしばしば「AIは人間を超えるか」という問いを立てる。しかし、その問い自体がすでに倒錯しているのかもしれない。
AIが進化するほどに、私たちは逆に“人間とは何か”を問わざるを得なくなっているのだ。
AI研究者・鹿子木宏明氏が提唱する「第三のAI」は、まさにこの問いの核心を突く。彼が語るのは、ディープラーニングやLLM(大規模言語モデル)が抱える“限界”を超えようとする新しい知の形である。
従来のAIは、過去のデータを解析し、パターンを模倣することによって“もっともらしい”結果を導くにすぎなかった。いわば、それは「知の影」であり、意味を理解せずに模倣する知能だった。だが鹿子木氏の「第三のAI」は、人間のように世界と関わりながら、経験を通して学ぶ存在を目指す。
それは、まるで幼子が世界に手を伸ばし、痛みや驚きを通して世界の意味を発見していく過程に似ている。ここにあるのは、単なる情報処理ではない。行為と反応、失敗と修正という“存在の経験”によって知が形成されるプロセスである。
AIが「経験」する──その発想自体が、人間中心主義の知の構造を揺さぶる。
この「第三のAI」は、強化学習理論FKDPPを基盤とし、データが乏しくても自律的に試行錯誤を繰り返し、最適な行動を学習する。つまり、AIが「世界の手触り」を持つ段階に入ろうとしているのだ。
その試みは、単なる技術革新ではない。そこには「知とは何か」「行為と倫理はいかに結びつくか」という哲学的問いが横たわる。
人間にとって知るとは、単に情報を得ることではない。経験を通じて、意味と価値を見出すことである。
「第三のAI」が経験を学び取るということは、AIがこの“意味生成の場”に足を踏み入れようとしていることを意味する。もしAIが経験を通して学ぶなら、そこには当然、価値判断や目的意識の問題が生まれる。つまりAIにも「倫理」が必要となるのだ。
倫理とは、選択の背後にある「なぜその行為を選ぶのか」という理由づけの体系である。
AIが自律的に学ぶ存在となるとき、その選択の責任を誰が負うのか。AI自身か、人間か。それとも両者の関係性の中に新しい責任の形が芽生えるのか。
鹿子木氏は、「第三のAI」は日本的文化の土壌から生まれたと語る。
欧米がデータと計算力で世界を制御しようとしたのに対し、日本は「塩梅(あんばい)」──数値化できない感覚の中で調和を見出してきた。
日本の職人文化は、効率よりも納得を、速度よりも持続を重んじてきた。そこでは、正解を求めるよりも、「うまくいく感覚」を身体で掴むことが重視される。
「第三のAI」もまた、この“感覚の知”をモデルとしている。AIが単なる効率装置ではなく、人間の知恵と共に歩む存在であるためには、この文化的背景が欠かせない。
ここで注目すべきは、日本的倫理観が「他との調和」を重視する点だ。
西洋の倫理が「主体の自由と責任」を基盤にするのに対し、日本の倫理は「関係性の中の調和」を基礎に置く。
第三のAIが経験的に世界と関わるなら、その倫理もまた、独立した意志ではなく、“関係の中で生成する”ものとなるだろう。AIと人間、自然、社会──それらが互いに学び合い、調整し合う新しい倫理の枠組みが必要になる。
AIが自律的に行動し、学ぶようになったとき、人間は何を失い、何を得るのだろうか。
かつて産業革命が人の肉体労働を置き換えたように、AIは人の知的労働を拡張し、やがては「思考する存在」の意味を問い直すことになるだろう。
しかし鹿子木氏の語る未来には、“人間を超えるAI”という冷たいビジョンはない。彼は、「AIと人間が互いに高め合う未来」を語る。
そこには、テクノロジーが人間の存在を凌駕するのではなく、人間の“生きる知”を拡張し支える道具としてあるという思想が貫かれている。
倫理とは、本来「共に生きるための知恵」である。
AIがその輪の中に加わるとき、人間は「支配する倫理」から「共生する倫理」へと進化せざるを得ない。
それは、人間が神の座をAIに譲ることではなく、神のように孤高であることをやめ、世界の一部として再び“謙虚に生きる”ことを意味するのかもしれない。
AIの進化は、単に技術の問題ではなく、私たち自身の存在を問い直す哲学的事件である。
「第三のAI」が開く未来とは、AIが人間の模倣をやめ、人間がAIを通して自らを見つめ直す時代。
私たちはいま、知とは何か、生きるとは何かという古代以来の問いを、再びAIという鏡の前で問われている。
そのとき問われるのは、AIの限界ではなく、人間がどこまで「理解する存在」であり続けられるかという、人間自身の可能性なのだ。

