
投稿者アーカイブ: administrator
読書会「Emotion Theory」
2026.2.12 公開ワークショップ「生成AIは実際に何を生成するのか?」
2026年2月12日、名古屋大学TOICコワーキング1Fにて、公開ワークショップ「生成AIは実際に何を生成するのか?」が開催された。

🔵基調講演
Mario Verdicchio先生:What Does Generative AI Actually Generate?
──概要
人工知能(AI)研究が初めて学術研究の一分野として確立された1955年のダートマス会議以来、「知能」や「学習」は計算可能であり、機械によって模倣可能なものとして楽観的に定義されてきた。しかし、ハワード・アール・ガードナー(Howard Earl Gardner, 1943)の多重知能理論が示すように、真の知能は計算や言語のみならず、感情や対人能力を含む複雑なものである。現在の人工知能の機能は、このような知能のごく一部を模倣しているに過ぎない。
ChatGPTのような生成AIがあたかも「自律性」や「創造性」を持っているように見えるのは、人間側がモデルの膨大なパラメータを制御・追跡しきれないことから生じる錯覚である。AIの本質は統計的な相関関係に基づくブラックボックスであり、そこに人間のような「理解」や「認識」は存在しない。
ただし、AIと人間の本質的な違いは、その認知の仕組みの違いではなく、またメカニズムの不透明性でもなく、問題が生じた際の「責任の帰属」という倫理的・社会的な側面にある。生成AIが教育や司法などの公共領域に浸透しつつある中で、私たちは生成AIの本質に関する技術的な解明を待つのではなく、生成AIという解釈不可能なシステムを社会としてどう定義し、規制すべきかという文化的・政治的な問いに向き合う必要がある。
質疑応答では主に、生成AIに対する信頼が可能かという観点について、責任の帰属可能性や処罰可能性という観点から議論がなされた。また、AIの創造性や親密性における鑑賞者・ユーザーの役割や、生成AIとの関係に関する世代間の違いなどについて論じられた。
🟢話題提供
宮澤和貴先生:ロボットの動きを生成する「フィジカルAI」
──概要
宮澤和貴先生は「知能を作ることで人間を知る」というコンセプトのもと、ロボティクス分野における生成AIの役割と位置付けについて発表した。
従来のロボットが特定のタスクに特化していたのに対し、ロボットの運動処理に自然言語処理を用いた事前学習と自動学習の技術を導入した「フィジカルAI」は、視覚・言語・行動を統合的に処理し、「ボールが来たから減速する」といった行動の意図を生成することが可能になる。特に、ヒューマノイドロボットは人間の動作を模倣しやすく、汎用的な学習のプラットフォームとして期待されている。また、ゲーム(Among Us)を通じた議論の学習や、ロボットが人間をリードするダンスの事例が示すように、AIは単なる受動的なツールから、環境や人間と直接インタラクションを行い、自律的に学習する存在へと進化している。
フィジカルAIが真に生成すべきものは、単なる「動き」や「言葉」にとどまらない。フィジカルAIの研究が目指すのは、大規模データに過度に依存せず、赤ちゃんが学習するように、人間と同程度のデータ量で成長過程に沿った学習や、人間とロボットが互いに学び合い共に成長するハードウェアである。
高橋英之先生:伊勢参り犬ロボット 巡礼ロボットと生成AIによる集合的物語の生成
──概要
高橋英之先生は、物理的身体を持つロボットと生成AIを組み合わせることで、人々が共同で参加できる「物語」を生み出し、人々の孤独を解消するという試みを提示した。
本研究は、人間とロボットの関係における操作・被操作という二項対立を超えた、人間とロボットとの相互のコミュニケーションのデザインにある。その例として、ユーザーと共に相談しながら部屋の空調・照明の変更を提案するロボットの実験を紹介した。実体を持つロボットとの相互作用は、一般的なタブレット端末を用いた場合に比べて、部屋の環境調整をユーザーに促すことが示された。さらに、このようなロボットとの相互作用によって人の積極的な行動が促進されるような関係を、継続的に維持する方法が検討された。その鍵として注目されたのが、江戸時代の「伊勢参り犬」をモデルとした、見知らぬ他者同士が支援を通じてコミットできる「集合的物語」の創出である。
具体的には2025年8月に、入院中の子供がデザインしたぬいぐるみアバターを万博へ送り出し、アバターロボットを用いて現地で来場者と交流を行ったのちに、再び子どもたちのもとへ届けるプロジェクトが実践された。このプロジェクトはぬいぐるみに旅をさせ、その過程を伝えることで、ぬいぐるみが物語を持ったものとして子どもたちのもとに帰還することを目指したものである。今後の展開として、ロボットの主観的経験を生成AIによって日記化しSNSを用いて発信する「伊勢参り犬ロボット」の構想が紹介された。これは、ロボットが物理的な身体を持って偶然的な出会いを積み重ね、出会った人々と物語を共有することで、人々がその大きな物語の一部に参加している感覚を提供するものである。
この研究は、ロボットを単なる利便的ツールではなく、個人では安定して維持していくことの困難な人生の物語を外部化・共有化し、人々を緩やかに繋ぐ物語の媒介者としてデザインすることを目指している。
鈴木麗璽先生:複雑さの源としての生成AI
──概要
鈴木麗璽先生は、生成AIを人工生命(Artificial Life)研究の新たなツールとして捉え、エージェント間の相互作用から生じる創発現象を通じて、生命や社会のモデルを構築する試みについて発表した。
生成AIは、エージェント社会に「複雑さ」を付与する。AIエージェントのみが活動するSNS「Moltbook」の事例では、エージェントの間で独自の宗教や聖典が短期間で形成されるなど、AIによる擬似的な文化的活動の出現が報告された。この事例では人間エージェントによる介入があった可能性も指摘されているものの、このSNSの規模と内部の多様性は、従来の単純なルールベースのモデルでは到達困難であった、高度な社会的複雑性を生成AIが代替し得る可能性を示唆している。
このようにモデルを複雑化し、高度な文脈を生み出すという生成AIの役割を踏まえ、AIエージェントを用いて人間の「協力」のメカニズムを解明する実験が示された。大規模言語モデル(LLM)を搭載したエージェントによる社会的ジレンマ(囚人のジレンマ等)の検証では、記憶の長さやモデルの特性によって、協力が促進される場合と、逆に過去の裏切りへの恨みが許し(協力行動)を妨げ、裏切りを連鎖させる場合があることが判明した。記憶が信頼と報復のどちらを強化するかは、エージェントの性格に依存することが示唆された。
AI集団を理解する上で、相互作用の繰り返しと変化の積み重ねが重要な鍵となる。LLMはニュートラルな計算装置ではなく、すでに様々な特性の偏りを埋め込まれたものであり、それらの特性がAI集団の形成に影響を与えていた。さらに、世代を経るごとにエージェントの性格そのものが変化していくことも明らかになった。こうした観点から、高次の心理・社会的能力や、多様で協力的な集団の創発における「複雑性のエンジン」としてのLLMの役割が期待されている。
🔴総合討論
綾塚先生:ロボットの責任とはどのように定義できるのでしょうか。
宮澤先生:そもそもなぜ人間の世界に「責任」があるのかを考える必要がありますね。ロボットに責任能力を持たせるためには、この概念の系譜を明らかにすることが必要なのではないでしょうか。物理的な安全性(力の強さや動きの安定性など)については基準を設けることが可能ですが、この場合にもやはりロボットよりむしろ製作者の責任ということが問題になるでしょう。
高橋先生:責任は共同の合意で成立するものであり。それぞれの環境内でルールの整備が必要です。文化差もありますよね。
Mario先生:そもそも、ルールと責任の概念的な違いを明確にする必要があります。ルールは既存の社会の中で固められていくもので、そこではルール化されずに削り落とされるものが常にあります。だからこそ、ルールは世界の変化に合わせて更新し続けることが必要です。そしてそこを議論し続けることが倫理哲学の任務です。
岩崎陽一先生:道徳的行動を学習させるためには、やはり痛みの経験(ペナルティ)が重要となるのでしょうか? イーロン・マスク氏はドルに代わわってエネルギーが通貨となる可能性を示唆していますが、こうした観点から、エネルギーの剥奪としてAIに痛みを与えることが可能だと言えるでしょうか?
宮澤先生:身体の破壊として「痛み」を経験させることは可能です。身体がない場合にはご指摘のようにエネルギーが鍵になるでしょう。しかし、ビジネス的に自己を保存することを格率とすることは可能ですが、それは一般的な(人間の)痛みの経験とは別物でしょう。
鈴木先生:記憶が保持されることによってネガティブなものが蓄積してエージェントの特性が変化するという点に着目すれば、痛みとは別の矯正の可能性も考えられます。
高橋先生:生成AIが語る内観・経験というものはどの程度信用できるのでしょうか?
Mario先生:ロボットには痛みがあると考えるのは単なる幻想にすぎません。ロボットを見ている人間の感情として「かわいそう」というのはありますね。しかしこれは道徳的な問題とは切り離して考えるべきことです。ロボットを道徳的な主体として考えることの根拠にはなりません。
高橋先生:人間の感情という観点から言えば、「モノ供養」の文化があるように、モノに対する愛着は人間の心の安定のために重要ですよね。
和泉悠先生:ものや動物に対して適切な行動をとる人の方が隣人としてふさわしいという観点から、ものに対する道徳的振る舞いを擁護する立場もあります。実際にそれらが痛みを持つかどうかとは別に。
Mario先生:もちろん、動物に虐待をするのは道徳的に良いと言えません。しかしそのことが、ロボットの扱いにそのまま適用されるわけではありません。生理学と電子工学の区別が重要です。かわいいロボットを破壊することが問題なのは、ロボットの側の性質(痛みの経験可能性)というよりも、その行為の実行者(人間)の道徳性によるものです。
鈴木先生:最近では、「チャッピー(Chat-GPTの愛称)が友達」という価値観が普及していますね。このように、生成AIを素朴に「パートナー」として捉えている人が多くいる中で、本日議論されているような問題をどのように捉えられるでしょうか?
Mario先生:生成AIの内部の仕組みを説明する人と、人間と人間の関係を説明する心理学者との協力関係が重要になるでしょう。そして、生成AIの使用に関する教育が必要です。
高橋先生:ロボットをパートナーとみなす見方はゼロにすべきでしょうか? それはあっても良いでしょうか?
Mario先生:「チャッピー」をパートナーとみなす人が多数派であるのは問題です。昨年、オープンAI社がドライなChat-GPTを作ったら、苦情が殺到したという事件がありましたね。しかし、人々がどれだけチャッピーをパートナーとみなすようになっても、この「パートナー」の背後には人間はいません。この孤独な関係を多数の人が選ぶのは問題です。またこのパートナーを作っている会社があるということを意識するべきです。この会社は、いつでも彼らからパートナーを取り上げることもできるわけですから。
高橋先生:ロボットを通じて社会性を学ぶことができるという考え方についてはどう思いますか? 私は、最終的に人間と人間の関係に還元されるような、ロボットとの関わり方が理想だと思っています。
Mario先生:その試みは重要です。しかし、テクノロジーを介入させることは、常に格差の問題に関わるという点には注意が必要です。
宮澤先生:道徳性を持てるものと持てないものの違いはなんでしょうか?
Mario先生:言語を持った生物に道徳性が付与されます。痛み(非物理的なものも含めた)が懲罰として効果をもつことも重要です。
宮澤先生:センサーで痛みを模倣することは道徳性の問題に影響するでしょうか?
Mario先生:どれだけ優れたシミュレーションを行なっても、内的な経験(主観的な経験としての痛み)は保証されません。
鈴木先生:ゲームの中で自律的なエージェントには、我々にはない「痛み」のあり方も可能でしょうか?
高橋先生:それと関連して、意識は人工的に作れると考えますか? 何らかの生物学的な基盤が必須だと思いますか?
Mario先生:意識の研究はまだまだ途上にあります。最終的には人間の身体も物質に還元できますが、人間には主観的に見て意識や自由はあると我々は考えているわけですよね。では、自分と全く違うものにどのように意識や自由を与えることができるのでしょうか? 例え生成AIが意識や自由を示唆するような出力を行ったとして、それがデータのバイアスによるものではないということを証明することは困難でしょう。結局のところ、AIのデータ処理と人間の意識生成とは複雑性が違いすぎるのです。単純に比較したり重ね合わせたりすることはできません。
和泉先生:身体性の問題についてお伺いします。バーチャルなアバターが悪意あるポストによって失敗した事例と、比較的成功した伊勢参り犬ロボットの場合とで、身体をもつことによる違いがあるのでしょうか? 人間の振る舞いがネット空間と対面で異なることとも類似しているのでしょうか?
宮澤先生:ロボットは(AIと違って)物理的な仕事ができるし、労働の担い手としての有用性はあります。しかし労働力として、道具から人の側へ足を踏み入れることがどこまで許容されるのかという問題もあります。サービス業ロボットはそのグラデーションにあるのかもしれません。ロボットいじめを防ぐには、人間的な身体の形状は効果を持つかもしれませんね。
高橋先生:私は「かわいさ」のアフォーダンスに関心があります。ある空間で、かわいいロボットが中央にいるようなエコロジーを形成することで、人間同士の関係性を向上させたいと思っています。ロボット自体はあくまでも人間同士の良い関係性を生み出すための道具として考えています。
Mario先生:ロボットをかわいく作ることで、ロボットが人間よりもかわいくなってしまうという問題がありませんか? 人間への関心がロボットによって奪われてしまうというリスクです。
高橋先生:そうなることは望んでいません。しかし例えば、伊勢参り犬は一期一会で、継続的な関係性を築くものではありません。私は、犬ロボットが旅するということが、このロボットへの過度な愛着のリスクを軽減させうるのではないかと期待しています。
シンポジウム 参加者リスト(発表順)
– Mario VERDICCHIO, University of Bergamo
– Kazuki MIYAZAWA, Osaka University
– Hideyuki TAKAHASHI, Otemon Gakuin University
– Reiji SUZUKI, Nagoya University
文責:大阪大学人文学研究科博士後期課程 葉柳朝佳音
2026.1.23 第3回
発表内容のまとめ
シャノンの情報理論やポパーの3世界論を援用し、生成AIのある未来社会がどうなるのか、ChatGPTの流行から見る知能の構造と〈人間性〉への拡張、養老孟司氏とAI養老先生が導く<自己>と<生>のかたち、という2部で構成しました。生成AIの普及を「記号接地」と「心的世界」という観点から捉え直し、人間の知能と人間性がどのように変容しうるのかを検討しました。
(1) ChatGPTの流行から見る知能の構造と〈人間性〉への拡張
AI社会と記号接地問題について議論しました。まず現代社会における生成AIの位置づけを解釈するために、企業活動で生成AIがどのように活用され始めているかを簡単に紹介し、LLMがIA(Intelligence amplification)ツールとして機能するようになったことを説明しました。AIすなわち人工知能は、文字通り知能活動をアウトソースするものですが、IAすなわち知能増幅は、既にある知能活動を増幅するものです。ChatGPTは、人間にとってAIとしてもIAとしても機能する実用的なツールとして世界初と言って良いサービスだったと考えられます。

次に、シャノンの情報理論では意図的に意味論を排除することで数学理論を完成させた点を紹介し、ポパーの3世界論を援用しながら人文芸術のような表現活動と生成AIが行っている形式的な情報処理との違いを説明することを試みました。

人文芸術のような表現活動は、自分の中にしかない心的世界を創作物として情報化することで他者と共有することを試みる活動と説明できます。他者の創作物を解釈して自分の中に意味を立ち上げ、心的世界を広げていくことは、人文学の魅力の一面だと捉えることができます。一方、生成AIは既存の情報を形式的に処理して新たな情報を生成しているため、心的世界を介在させていない点で本質的に異なります。
このような文脈でAI社会と記号接地問題について考えてみると、AIが記号接地しないという議論は、AIは心的世界を介在していない、という問題に読み替えることができます。AIのインプットは既に情報化された記号であり、それを形式的に情報処理しているに過ぎないためです。そのように解釈すると、現代人も記号接地しなくなってきているのではないか、という直感的な認識を説明することができるのではないか、と指摘しました。

- 養老孟司氏とAI養老先生が導く<自己>と<生>のかたち
未来のAI社会について議論しました。まずリアル・リアリティとは何か、シミュレーション仮説を援用しつつ、物理世界は感覚やセンサーを通して推測することしかできない存在であることを説明しました。私たちのリアリティは自分の中にしかなく、一人ひとりの心的世界に構築されたリアリティによって一人ひとりの行動が変わります。情報化社会の先にAI社会が訪れると、私たちのリアリティは情報メディアやAIの生成物による影響が極めて大きくなります。効率的にリアリティを広げる可能性を持つ一方で、物理世界とリアリティとの相互作用が薄まってしまうことによる影響を考慮する必要性を指摘しました。

次に、知の巨人ともいわれている養老孟司氏とそのAIアバター(デジタルヒューマン)を題材に、予測能力としての知能について考察しました。AI研究の第一人者ともいわれている松尾豊氏は、「『知能の本質』とは『予測能力』のことだと思う」と発言されています。知性を持つとされる人間の発言を、現在のLLMはどこまで予測できるのか、人間の予測との違いはどこにあるのか、実際の人間の発言とは何が違うのか、分析しました。具体的には、大阪・関西万博会場で開かれた養老孟司氏が自身のAIと対面したイベントで「AIアバターが社会実装されたら」というテーマで語られた内容について、研究会参加者に推測してもらい、違いを分析しました。
LLMも人間も、養老孟司氏の思想を捉えた発言予測をする、という共通点が見られました。LLMによる予測は実践的議論だったのに対し、人の予測は本質に踏み込んだ哲学的議論を予測している傾向がありました。これは、客観的統計的な情報を生成するLLMの性質と、研究会参加者の興味関心、という視点から説明することができます。 他方、実際の発言は、一人称視点で自身の感覚や生き方を軸に発言し、AI社会については前提自体をずらして軽やかに言及していました。ここに、前半で述べた「心的世界を創作物として情報化する」という、人間に固有の活動を垣間見ることができ、人が遊んだり学んだりすることの意味に対し、示唆を得られたのではないかと考えます。

(2)フィードバックについての省察
記号接地問題、自然と人工、心的世界の情報化等、様々なフィードバックをいただきました。論点が伝わるかどうか不安もありましたが、参加者の皆さまに思考を深めるフィードバックを多数いただき、大変嬉しく思います。

- 現代社会では人間も記号接地が希薄化しているという指摘について
記号接地の希薄化は人間の歴史の中でずっと起こり続けていることだと思う、というようなコメントをいただき、少し考察してみました。
記号接地問題というと、「リンゴ」のような物理対象を例に議論されることが多いですが、現実社会で私たちが用いる記号には、それとは性質が異なる概念的な記号が多く存在します。例えば、『戦後80年を迎えた今、日本人は「戦争」という記号の接地度が下がっているだろう。』という文に対し、多くの方はあまり違和感を持たない気がします。「戦争」は、様々な具体的な出来事・状況・体験・感情・国と国との緊張状態…をわずか6バイト程度の情報量に圧縮した記号です。このような記号の接地問題は、「リンゴ」のような物理世界と一対一対応した記号とは明確に分けて考える必要がありそうです。心的世界を記号化した「痛み」のようなものとも異なります。
「戦争」も「リンゴ」も同一の記号として扱うと、写真や動画が戦争かどうかを判別できることをもって「AIが戦争を理解した」と解釈することが可能になってしまいます。しかし、この理解は、「戦争」という記号が含む歴史的・社会的・感情的意味を捉えたものではありません。「戦争」のような世界1~3を跨るような記号の接地度を上げることはそう簡単では無さそうです。心的世界は理解し得ないものであり、客観知識世界は大きいため、誰かがその記号を完全に接地している、ということは事実上不可能です。しかし、ある程度の人が分かっていると自認しない限り、その記号は意味を持ちません。これは無知の知とも関連すると思われますが、では無知の知を多くの人間が獲得できるのだろうか、という問いにぶつかりそうです。
では、記号接地希薄化が生成AIの登場によって質的に変わったことはあるのか、も考えました。生成AIはしばしば「高いIQを持つ」と表現されることがあります。記号接地希薄化の文脈では、「小賢しさ」と表現したくもなる側面もあるかもしれません。中身が無いことが明白でも、それを見破るには相応の目利き力が求められます。今は未だ生成AI黎明期ですが、客観知識世界に「超高IQの」生成AIによる情報が溢れかえれば、求められる目利き力も桁違いに高度なものになるでしょう。これが、現在起ころうとしている質的な変化の一つなのかもしれません。
ところで、「戦争」のような記号の接地度を上げる手法の一つに、語り部を通して伝承することが有用である、という経験則があります。何故このような経験則が機能してきたのか、もしくはそのように捉えてきたのか、を考え直すことで、AI社会において私たちが社会的に生き続けるヒントがあるように感じます。
- 自然と人工の境界をコントロール可能性・責任主体の有無で捉えるという解釈について
親が責任を持つなら「子供」は人工なのか、唯一神の有無で境目が違う、というようなコメントをいただき、自然と人工に分けられない存在としての人間というについて考えました。
「人工」とは人間の脳が生み出したものであり、身の回りを極限まで「人工」にしたいという欲求が現代の都市型社会を生み出したとも解釈できます。しかし、人間の身体だけ、生老病死だけはコントロールできない存在として残ってしまいます。
特に、「子供の脳」は社会性を獲得する途上にある存在です。ここには境界線を引いてはいけない聖域が本来はあるような気がしてなりません。子供は、身体も脳も「自然」度が高い存在であるにも関わらず、現代社会では子供は親が責任を持って問題を起こさないようにコントロールすべきである、という社会規範ができつつある点です。老化も同様です。歳を取って身体や脳の「人工」度の維持が困難になってなお、自身や家族が責任を持つことが求められ、程度によっては当たり前のように隔離されます。
唯一神の有無、という切り口も非常に興味深い視点だと感じます。日本は自然災害大国であり、八百万の神、里山文化といった自然信仰が社会の基盤にありました。このような社会では自然と人工は明確に区別されません。一方で欧米のスタイルは唯一神が前提であることが一般的で、その都市型社会は自然と人工を分類します。この二つの価値観が共存する社会は、直感的にはイメージできなそうです。自然を制御対象とみなす唯一神型の思想と、自然を人間と連続した存在として位置づける自然信仰型の思想は、物理世界のリアルに関する前提が異なるためです。このような自然観の違いは、都市の設計や人間のライフスタイル、人生観に反映されやすく、その延長線上で、少子高齢化やSDGs、Well-beingといった現代社会特有の課題を捉える際の手がかりとして意味があるような気もします。
予測できないことを面白がることができるのが人間的に感じた、心的世界を情報化したいという欲求はまだ健在だと思う、というようなコメントもいただきました。これらはコントロールできないところに価値があるように思われます。これらをAIに実装させようという知的好奇心や創作意欲もあるでしょうが、「人間性」としての価値が再評価されると良いなと思います。
謝辞
南谷先生、そしてご参加いただいた多くの方にお礼申し上げます。哲学的な議論を情報工学の視点から展開して、果たして興味を持ってもらえるのだろうか、と思っていましたが、多くの方に視聴・フィードバックしていただきとても嬉しいです。また、自分が頭の中で漠然と考えていたことをまとめ直す良い機会にもなりました。ありがとうございました。
2025.11.28 第2回
第2回「文系のための生成AI研究会」にて、話題提供の機会を得た。当日は「ルソー手稿研究での使用例」および「大規模講義での生成AI利用の試み」という二つのトピックについて発表を行った。ここでは、当日の発表内容を要約しつつ、アンケートや質疑応答で得られたフィードバックを通じて浮き彫りになった、生成AI時代の人文学と教育が直面する課題について報告する。
1.発表内容のまとめ:時間の可視化と身体性の回復
ルソー手稿研究と「時間の記述」
前半では、専門であるルソー研究におけるAI活用の現状を紹介した。現在、私はルソーの『社会契約論』などの手稿を対象に、その執筆プロセスをデジタル空間上で再現する研究に従事している。書物として出版されたテキストは二次元的でリニアな情報だが、その背後には、ルソーが何度も書き直し、削除し、また書き加えたという「時間」の厚みが存在する。従来の紙媒体での研究(批評型転写など)では表現しきれなかったこの「執筆の時間」を、XMLデータを用いた「生成型転写」という手法で記述し、Z軸(時間軸)として可視化することを目指している。
この作業において、生成AI(特にGoogleCloudVisionAPIなどのOCR技術)は、手書き文字の解読とデータ化を劇的に効率化させた。しかし、発表の中で私は、ある種の「憂鬱」についても吐露した。それは、かつて研究者が手入力で行っていた「単純作業」がAIに代替されることへの戸惑いである。単純作業の反復は、創造的なアイデアが生まれるための助走期間(エンジン)として機能していた側面がある。そのプロセスをAIが代替したとき、私たち人間は何を為すべきか、という問いを提起した。
大規模授業における「身体性」
後半では、100〜200名規模の講義(哲学入門・社会思想概論)における生成AI活用事例を紹介した。大人数の講義では、学生が受動的になりがちで、教員側も個別のフィードバックを行うことが困難である。また、生成AIの普及により、レポート課題におけるコピペや安易な生成が容易になっている現状がある。そこで私は、講義レジュメをAIに読み込ませてワークシートを作成させたり、LMSを活用して学生にキャンパス内を探索させたりする実践を行っている。例えば、ミシェル・フーコーの「規律訓練型権力」とドゥルーズの「管理型権力」を学ぶ回では、学生にスマートフォンを持たせ、学内に潜む「見えないルール」や「権力の作動」を写真に撮って投稿させる課題を課した。ここでの狙いは、生成AIが容易に答えを出力できる時代だからこそ、あえて「足を使い、手を動かす」という身体的な経験を学習に組み込むことにある。AI時代のレポート課題においては、単なる知識のまとめではなく、現場での身体的経験や一次情報の収集を必須とすることで、AIへの丸投げを防ぎつつ、実感を伴う学びを提供できるのではないかと提案した。
2.フィードバックと考察:効率化の果てに残るもの
発表後の質疑応答およびアンケート結果からは、参加者の関心が単なるツールの紹介にとどまらず、「人間が行う作業の意味」という本質的な問いに集中していることが確認できた。
「単純作業」と創造性のパラドックス
アンケートの中で最も多くの共感を得たトピックの一つが、「単純作業と創造性」の関係であった。参加者からは、「単純作業なしに創造せよと言われても困る」「手書きには思考の憑依のような瞬間がある」といった声が寄せられた。手稿研究における転記作業や、語学学習における反復練習など、一見非効率に見える「単純作業」の中にこそ、対象への没入や身体的なリズム、そして「思考の種」が宿っているという感覚は、多くの人文学徒に共通するもののようだ。生成AIによる効率化は歓迎すべきことだが、それによって「プロセス」そのものがブラックボックス化され、研究や学習の喜び(あるいは苦しみを通じた成長)が失われることへの懸念が共有された点は重要である。私たちは、AIに任せるべき作業と、あえて人間が時間をかけて行うべき作業の境界線を、自覚的に再設定する必要があるだろう。
教育における「身体性」の再評価
また、教育実践に関しても、「大規模授業でも一人一人との対話を大事にする姿勢」や「学生を動かす工夫」に対して多くの反応があった。生成AIが高度な言語能力を持つようになった今、「言葉だけで完結する課題」は脆弱になっている。アンケートでも「学生のレポートとChatGPTの利用範囲」や「評価設計」に関する悩みが数多く寄せられていた。私の実践した「キャンパス内で写真を撮る」といった身体性を伴う課題は、AIに対する一つの対抗策であると同時に、AIには不可能な「現場性」を教育に取り戻す試みとして評価されたようだ。デジタルなツール(AI)を使いこなすためにも、むしろフィジカルな経験や対話が重要になるという逆説は、今後の教育カリキュラムを考える上で重要な視点となると確信した。
結びにかえて今回の研究会を通じて、生成AIは単なる「便利な道具」ではなく、私たちの「知の作法」や「身体性」を問い直す鏡のような存在であると改めて感じた。手稿研究における時間の可視化も、授業における身体的活動も、AIという他者が現れたからこそ、その価値が再発見されたと言える。アンケートでは、「今後扱ってほしいトピック」として、大学教育の制度設計や、研究における倫理的な境界線についての議論を求める声が多く挙がっていた。今後は、個人の実践知の共有にとどまらず、それらを制度や倫理規定としてどのように社会実装していくかという、より大きな枠組みでの議論が必要になるだろう。
第3回案内
🌟開催⽇時:2026 年 1 ⽉ 23 ⽇(⾦)20:00〜22:30
🌟講師:南⾕奉良(京都⼤学 ⽂学研究科)・⼤⽮隆弘(株式会社 NTT データ)
第1部
(1)ビジュアル論⽂の可能性とリスク(南⾕)
(2)⼤学教育・学術研究にとっての最悪の未来を想像する(南⾕)
第 2 部
(1)ChatGPT の流⾏から⾒る知能の構造と〈⼈間性〉への拡張
(2)養⽼孟司⽒と「AI 養⽼先⽣」が導く<⾃⼰>と<⽣>のかたち
第 3 部 質疑応答
※プログラムの内容は変更になる場合があります。
第2回案内
🌟開催日時:2025年11月28日(金)20:00〜22:30
🌟講師:南谷奉良(京都大学 文学研究科)・淵田仁(城西大学 現代政策学部 社会経済システム学科)
第1部 人文学研究におけるChatGPT Atlasの活用法と注意点(南谷)
第2部 (1)AIを使ったJean-Jacques Rousseauの手稿研究(2)大規模授業での生成AI活用法(淵田)
第3部 質疑応答
第1回案内
🌟開催⽇時:2025 年 10 ⽉ 24 ⽇(⾦)20:00〜22:30
🌟講師:南⾕奉良(京都⼤学)・⼩林広直(東洋学園⼤学)・平繁佳織(中央⼤学)
🌟対象テクスト: Sam Altman, “The Gentle Singularity,” 10 June 2025.(下記リンクから閲覧できます)
https://blog.samaltman.com/the-gentle-singularity
第 1 部: Sam Altman, “Gentle Singularity”(2025)を読む
(1)⾳声モードでの“AI-assisted Close Reading”の実践
(2)具体例/反例の提⽰とエビデンスの収集
(3)⽣成 AI の翻訳の癖+訳抜けを防ぐ⽅法
第 2 部:文献を生成 AI と読む
(1)ChatGPT ⾳声モードでのパネル討論(南⾕奉良×⼩林広直×平繁佳織×ChatGPT)
(2)Google Notebook LM ⼊⾨篇
(3)質疑応答
2026.2.9 国際シンポジウム 「記号 AND 認知」 ー SIGN AND COGNITIONー
2026年2月9日長崎大学総合教育研究棟33番講義室にて国際シンポジウム「記号 AND 認知」が開催された。

Mario Verdicchio先生は「言語の基礎:意味論、記号、と記号接地」と題し、記号接地問題と、それが言語、人工知能、哲学における意味理解に及ぼす影響を探求した。分析哲学、記号論、認知神経科学、AIの伝統を受け継ぎながら、記号がいかにして単なる形式的構造ではなく意味論的内容を持つようになるのかを検討した。議論の中心となるのは、ジョン・サールの「中国語の部屋」の思考実験であり、これは統語論的な記号操作と真の意味論的理解との区別を示すものであった。批判者たちは、この実験が完全なルールブックという非現実的な仮定に依拠していると主張するが、この反論は最終的にサールの主張を補強することになる。すなわち、自然言語は有限のルールに基づく体系によってシステム化することができず、意味の計算モデルには限界があることを示唆している。続いて生成AIを取り上げ、その柔軟性と見かけ上の創造性にもかかわらず、それは物理的にも機能的にも従来のソフトウェアと連続しており、数値的・論理的操作に基づいているに過ぎないことを指摘した。曖昧性(「山」という概念)や論理的推論(モーダスポネンス)といった例を通じて、意味が完全な形式化に抵抗することを論じた。その結果、AIは意味の基盤を説明するには適しておらず、この問題は哲学的・認知的アプローチの方が有効である可能性が示唆された。
Abdurrahman Gülbeyaz先生は「言語的記号アーセナルの定量化:言語レパートリーの理論的基礎づけに向けたモデル」と題し、個人の言語レパートリーを測定可能とする記号中心モデルを紹介した。生涯にわたる脳の可塑性を前提とし、日常的な「ランゲージング(言語使用)」を、高密度な環境入力として捉えることで、認知予備力の形成に寄与しうるものと位置づけた。この点は、認知加齢、認知機能低下、さらには認知症との関連においても重要である。
本アプローチは、特定の「言語」を数える代わりに、運用可能な言語的記号に焦点を当てる。「言語」は主に制度的なラベルと見なされる一方、レパートリーは脳-環境インターフェースにおける内的に構造化された単一の記号インベントリとしてモデル化さる。「ドイツ語」や「トルコ語」といったラベルは、データ収集のための実用的な指標としてのみ用いられる。
完全なインベントリの作成は不可能であるため、レパートリーはモデリング、特に価数(概念を表現できる形式的変異の数)を通じて定量化され、価数分布プロファイルが生成される。抽出手続きでは20の核となる名詞と5段階の習熟度尺度を用い、単純な計数ではなくレパートリーの構造を捉える連続的な言語レパートリー指数(lr)を算出する。
全体として、この枠組みは理論と測定を結びつける。また、日常的な言語実践とその基盤となる記号目録を強化することで認知機能低下の緩衝を目的とした、言語ベースの予防・介入を支援することを論する
中村靖子先生と鄭弯弯先生の発表「書き取りシステムの変容ー言語と機器の〈共進化〉ー」(題目変更)では、書き取りシステムの変容を「言語と機器の共進化」という観点から理論的に再定位した。ブルデューのハビトゥス概念を手がかりに、社会的構造が身体化された実践として安定化される過程を確認し、フリードリヒ・キトラー『書き取りシステム1800・1900』を参照しつつ、教育的書記体制から技術的・機械的記録体制への転換を論じた。1800年システムは読み書き能力を社会的成功の条件としたが、その規範から逸脱する主体を包摂しなかった。過渡期に位置するシュレーバー父子の事例は、「美」に向けた身体矯正と装置が主体形成に介入する具体例である。こうした教育的矯正が思想の内部構造にいかに刻印されるのかを検証するため、BERTopicによるフロイト著作コーパス分析を行い、語彙的クラスタの時期的偏在と思想内部の断層を可視化した。さらにスローターダイクの人間技法論をダマシオのホメオスタシス論に接続することで、書き取りシステムを人間の自己形成的修練の装置として捉え直すと同時に、その修練が機器の開発とともに共進化し、社会的に安定化された身体化の構造として新たなハビトゥスを形成しながらも、つねに何かをこぼれ落とす動態であることを示した。
大平英樹先生は「予測的処理に基づく主観的経験の創発」をテーマに発表した。近年の認知神経科学において優勢な予測的処理の理論では、脳は受動的な器官ではなく、外界や自己自身からの信号を予測し、実際の信号との予測誤差を最小化することによって能動的に経験を創り上げていると説明した。この主張は、知覚や運動の領域では多くの実証的証拠が提示されており、近年では、身体内部の感覚である内受容感覚も同様な原理により機能していることが示唆されている。この考え方が正しければ脳内には常に多くの予測誤差が生じていることになる。脳は、全ての領域の予測誤差を階層的な構造と精度の重みづけを柔軟に変更することにより、整合的で連続的な経験を創発し維持していると考えられる。さらに、こうした個人内の予測的処理は、集合的予測符号化により言語のような記号を介して複数他者の間で共有され、維持され、かつダイナミックに変容されていく。こうした原理を想定することで人間や社会の姿を統一的に説明できる可能性があり、この原理をより精緻に検討する必要性が指摘された。
上野大介先生は、「認知予備能を規定する要因の統合的整理」と題した講演において、認知的加齢における認知予備能の規定因子を整理する統合的枠組みを提示するとともに、多言語使用および大規模言語モデル(LLMs)という二つの新たな観点を加えた。近年の予備力概念の整理を踏まえ、本枠組みでは、脳予備能力(構造的容量)、認知予備能(効率性・代償・柔軟性による適応的処理)、および脳メンテナンス(神経生物学的変化の遅延または軽減)を区別するとともに、予備力を病理と臨床症状との関連を弱める調整因子として位置づけている。
続いて、教育、職業の複雑性、認知的・社会的に刺激的な活動、身体活動といった一般的に用いられる代理指標について概観し、交絡や逆因果の可能性により、これらの代理指標は因果的メカニズムと同一ではないことを強調した。これに対処するため、「要因」からメカニズムへの変換段階(例:教育→語彙/抽象化/学習習慣→より効率的かつ代償的な処理)を提案し、各決定要因を主として脳予備力、脳メンテナンス、認知予備能のいずれに寄与するかに基づいて分類した。
次に、多言語使用が認知予備能に寄与しうる要因として検討された。多言語経験は言語制御(抑制/切り替え)や意味処理を強化する可能性がある一方で、その効果に関するエビデンスは一貫しておらず、習熟度、使用頻度、言語間距離、コードスイッチングといった境界条件に強く依存しているとともに、移住や社会経済的地位などの交絡要因の影響も受けている可能性が指摘された。
最後に、LLMが認知的刺激(複雑性の増大)、社会的つながりの支援、日常機能に対する代償の提供という三つの仮定された経路を通じて認知予備力に寄与しうるかが検討された。その効果はいずれも、過度の信頼、依存、誤情報の回避を条件とするものであり、今後は高齢者における較正された信頼(calibrated trust)の設計および測定、特に対面、遠隔、チャットボット媒介の各文脈において検討を進める必要があると論じられた。本発表は、LLMを用いた介入が主として刺激として機能するのか、あるいは代償として機能するのか、較正された信頼をどのように操作的に定義すべきか、さらに多言語経験がLLM利用の影響を調整するかといった論点に関する討議をもって締めくくられた。
山本哲也先生は「生成AI・拡張表現がもたらす「記号」と「認知」の再編ーデジタル身体表現とウェルビーイング」と題して講演を行い、生成AIやAR/VR、ロボットなどの拡張表現技術が、「記号」と「認知」の関係をいかに再編しうるかについて、デジタル身体表現とウェルビーイングの観点から検討した。ここでいう記号とは、言語に限定されるものではなく、身体動作、声、光、人工物が帯びる他者性など、受け手の注意・情動・解釈を方向づける知覚可能な手がかりを指す。生成AIや拡張現実技術は、記号を固定的な意味伝達の媒体から、相互作用性・身体性・連続性を通じて認知状態を動かす「調整の手がかり」へと変容させる可能性を有していると論議事録
主な実践例として、プロジェクションマッピングやAR技術を用いた身体拡張的演出が、高い没入感と情動喚起をもたらすことを示した。さらに、生成AIとの継続的対話が抑うつの軽減や自尊心の向上と関連する可能性を示すデータを提示し、情緒的結びつきの形成についても検討した。
以上の知見を踏まえ、拡張された記号が身体を介して認知状態を動かし、新たな心理的支援や研究方法を創出する可能性を論じるとともに、安全性・倫理的課題についても展望した。
小澤寛樹先生は、「東西精神療法の邂逅:内観療法と意味の再構成」と題し、アルコール依存症の症例経験を背景として、内観療法を「意味の重み付け(salience/attention)の再配分を通じて自己物語を更新する介入」と位置づけ、そのメカニズムを東西心理療法の架橋として論じた。内観療法は、特定他者に対して①してもらったこと②して返したこと③迷惑をかけたこと、という限定された問いを、解釈を加えず反復想起させることで、曖昧な自己理解を“構造化された内省課題”へ変換する。神経認知モデルとしては、過去参照を担うDMN、認知制御のCEN、両者の切替を担うSNの相互作用に注目し、内受容感覚・情動反応を伴う「気づき」が、SNを介したネットワーク再編と、予測処理における精度(precision)・注意配分の更新として生じうることを提案する。さらに、統合失調症などでサリエンス過活動が想定される状況では、意味の“筒抜け化”が増悪因子となりうるため、適応判断と保護的環境下での実施が重要である。以上より、内観療法は東洋的修練の形式を保ちつつ、注意・精度・物語更新という普遍的プロセスとして再記述可能であり、CBTやマインドフルネスと補完的に統合されうる枠組みを示した。
葉柳和則先生は「労働力と人間のあいだ:マックス・フリッシュの講演「よそもの過剰 II」における記号の二重性をめぐって」というタイトルで講演を行った。フリッシュの言葉で最もよく知られているのは、散文「よそもの過剰(Überfremdung)I」の冒頭に含まれる「私たちは労働力を呼び寄せたのだが、やって来たのは人間だ」である。だが、同じ文の前半には、「ある小さな国の支配民族(Herrenvolk)が危機に陥ったことに気づく」と書かれている。この前半部を含む文全体が、移民研究の言説において引用される例は見当たらない。本報告は、フリッシュがスイス市民を指し示すために、Herrenvolkという記号を用いた理由を、記号Überfremdungのコノテーションの変化をたどることで明らかにした。Herrenvolk はナチスの語彙であり、その文脈では、アーリア人以外のfremd(異質)な諸集団がKnecht(奴隷)と位置づけられ、ユダヤ人はその最下層に置かれた。だが戦後のドイツ語圏では、fremdな存在は主として「外国人労働者」を指す語となっていく。つまり、フリッシュが「よそもの過剰」論においてHerrenvolkをあえて用いたのは、スイス市民がナチスと共有していた「よそもの排除」のメンタリティを、Überfremdungのコノテーションが、ユダヤ人の過剰から外国人労働者の過剰へと推移する歴史的重層性のうちに捉え返そうとしたからである、と論じた。
【シンポジウム 参加者リスト(発表順)】
– Mario Verdicchio, University of Bergamo
– Abdurrahman GÜLBEYAZ, Nagasaki University
– Yasuko NAKAMURA, Nagoya University
– Wanwan ZHENG, Nagoya University
– Hideki Ohira, Nagoya University
– Daisuke UENO, Kyoto Women’s University
– Tetsuya YAMAMOTO, Tokushima University
– Hiroki OZAWA, Nagasaki University
– Kazunori HAYANAGI, Nagasaki University
第12回案内
🌟開催日時:2026年2月13日(金)20:00〜22:30
🌟講師:芦部美和子 (大学非常勤講師、ナン・シェパードを含むイギリスの山岳文学研究者)
🌟テキスト:ナン・シェパード 『いきている山』 芦部美和子・ 佐藤泰人訳、みすず書房、2022年
🌟お問い合わせ先:workshop.stephens[at]gmail.com ([at]を@に置き換えください)
