pherim㌠

<< 2023年7月 >>

1
2345678
9101112131415
16171819202122
23242526272829
3031

pherim㌠さんの日記

(Web全体に公開)

2023年
07月28日
18:09

テッド・チャン講演「生命と意識、人工と自然」メモ

  

 テッド・チャンを神経科学者と計算機科学者で囲む対談中継が、予想外に面白かったのですこしだけ感想を書きだしてみる。

  《ALIFE 2023 特別公開講演「生命と意識、人工と自然」》
  https://2023.alife.org/programme/public-event-jp/



 議論はChatGPTから始まっていて、特に初めて聴く内容でもないしこれは“ながら作業”案件かなと思ってコーヒーなど淹れていたら、進行役のComputer Scientistおばちゃん=Susan Stepneyがひと言で流れを変えた。それは「ChatGPTの延長に意識が生じ得るとして、そこに物質性はどう関与するか」という質問で、過去にもチューリングテストなり哲学ゾンビなり長い時間をかけくり返された「プログラムに意識は生じるか」という疑問が、すでに具体的背景をもった手近な話題として切り込まれることにハッとした。

 テッド・チャンの答えは簡潔に言えば「生じ得るし、関与は無用」というものだ。炭素系なり水素系なりの原子運動レベルまでシミュレーションモデルが研ぎ澄まされたAIであれば、意識は生じる。脳とはそういうものだからだ。ここではむしろ「簡素化」が問題になる。科学とは事象を原理なり法則なりに当てはめ理解し、予測可能なものとする営みだが、この「原理なり法則なりに当てはめ」るとはすなわち現実の簡素化作業に他ならず、AIの進化は「炭素系なり水素系なりの原子運動レベルまで」解析することなしに別の論理で進展する。この疑問にとっては、これが障害となる。

 ここでおばちゃんが再度切り込む。「意識は痛みを感覚する。つまりプログラムも感覚するようになると考えるべきか」。鋭い。限られた時間内で最大限の到達距離を目指せる質問能力。テッド・チャンの応答は以下の通り。痛みはこの場合、とても複合的な反応作用として生起するから、その要素の逐一の再現性という観点から言えば痛みを感覚するような反応へ至るプログラムは可能だが、ここで見過ごせないのは「プログラムが痛みを感じている」とうけとる人間の側に生じる倫理的な問題で、ワインの味だとか犬の遠吠えだとかを人間は物質的な味覚情報や聴覚情報を通じて感覚し人間的に解釈する。AIに対しても同様だが、ここに企業的な詐術が紛れ込むリスクは大きい。

 Neuroscientistおじちゃん=Anil Sethがここで、これまでの議論の文脈へつなげるには「企業的な思惑」はやや瑣末すぎないかという種の疑義を呈する。テッド・チャンは即抗弁する。それはそうだろう。人はすでに、ほぼ無限の選択肢から「感覚的」にAmazonリコメンドへ従っているし、スマホ画面へ「感情的」に反応している。リコメンドや画面に映るものの大半はすでにAIが作成するか、AIの制御を受けている。Anil Sethは界隈では有名人らしく単著邦訳も出ていてTEDがバズった人らしいけど、神経科学者でありながらテッド・チャンより文芸要素というか人間の情緒的側面を非AI的=非要素還元的に捉える傾向が窺え、これはテッド・チャンを引き立てる座組として秀逸だなとおもう。

 この対談でふたりの対峙が最も明瞭になったこの瞬間に、Computer Scientistおばちゃんが再度切り込んでくる。「議論がこの方向へ進むことは予測されていたので、では倫理的問題へ話題を移しましょう。」 人間が読み込むデジタル領域における他者性の問題圏で、いわばGhost in the Shell時空へ突入しだしたのだけれど、士郎正宗や押井守の脳が明晰だった90年代と今が異なるのは、これが「物質的に身近な問題」として討議の対象となることだろう。なにしろ現状はChatGPTという形をとって、それはもう手のひらのスマホ内で現に生きだしているからだ。
 しかし残念ながらこの種の企画の常として、これからというときに時間が来て終わった。が、じゅうぶんに面白かった。


 改名されてしまったTwitterだけれど、自分がふだん初めに開くTLリストには、コロナ禍以降よくこの種の講演Zoom通知があって気が向けば一応登録もするのだけれど、数週間後の当日になって実際に視聴することは稀だし、してもながら作業が大半で、興味をもって意識を集中させるに至ることは年に数度あればいいほうだ。

 議論の中身とはべつに今回印象的だったのは、自動化された英語字幕の精度だった。コロナ前とはもう次元の違う精確さだし、そこにはむろん単に話者の言葉の癖を踏まえ正確に聴き取る深層学習能力だけでなく、文脈から可能的に言葉を選び取る能力も加わっていて、たとえば科学と文学との交わりをめぐりテッド・チャンがウンベルト・エーコなどを例に挙げ「完璧な言語」について語りだした際には、彼の発言のある箇所を初め「Ballard says that...」と表示し、次の瞬間「Valid space is that...」と表示し直していた。「J.G.バラード」と「限定空間」のどちらが後続する発言にふさわしいかを計算によって叩き出した瞬間をここにみてほのかに感動を覚えた。それは世界標準の学者講演会などに呼ばれる、当該分野に特化した経歴をもつ超優秀な同時通訳者がしばしばみせる、まだ話者が話していない言葉を先取りする身振りを想起させる。
 
 札幌で行われたイベントらしいけど、倍の時間がかかるうえ話の腰を折り続ける逐次通訳とかが消えてくれるこの流れはまことに重畳。自動日本語訳はまだ破茶滅茶だけどこれもせいぜい2年遅れとかだろう。無料の1時間イベントでこれだけ聴けたら満足すぎるし、てかメモにも1時間近くかけてしまった。この《アウトプットにむやみな時間がかかる問題》にも(己の)技術進化が待たれるところですね。



おしまい。
: