2025年10月23日木曜日

ユヴァル・ノア・ハラリ NEXUS 情報の人類史

読むべき本のひとつだとは思う。情報伝達が人類社会に多大な影響を与えることをわかりやすく解説している良い本だ。しかし、ホモ・デウスを読んだときも同じ感想をもったが、ハラリ氏はAIについて素人なのにAIについて意見を述べるからおかしな主張になる。ハラリ氏も自分は中世と近世の軍事史の研究者だと言っている。哲学者ですらない。その状態でAIがどうとか論評すると、素人は言いくるめられても、AIを本当に分かっている人は???(=何言っているのこの人は)となってしまう。せめてフレームワークなしにDNNをコーディングできるようになってからAIを論評してほしい。原理を知らずに物事を語るのは失敗のもとだ。

とは言うものの、DNNをフレームワークなしにCUDAでコーディングした最初の人であるはずのヒントン先生もハラリ氏と同じようなことを言っている。ヒントン先生は、transformerで作られたLLMとは違う新たなアーキテクチャのAIを想定しているのかもしれない。ハラリ氏にはそれが見えていない。

ハラリ氏は世間知らずである。これは以前のブログで述べたが、生活圏に頭のまともな人ばかりの環境で暮らしていると人間はみんな賢くて合理的で善良だと思い込みがちだ。大学の先生とか起業家などがそうなっているのをよく見かける。ハラリ氏はそのパターンだ。人類は80億人いるが、そのうち90%くらいはどうしようもなく愚かなのだ。これを理解してから政治なり経済なりを考えないと国家運営はうまくゆかない。ハラリ氏は未来をAIと人類の戦いだと主張するが、そんなことにはならない。AIは関係なく、未来はまともな人と愚か者との戦いである。地球と愚か者との戦いと言い換えてもよい。愚か者が勝てば地球環境は汚染され尽くして、地球史上6回めの大絶滅が引き起こされる。以前に大絶滅は5回起きたが、その都度地球の生物は復活したのだから6回めが起きてもかまわないのではないかという意見は認める。だからと言って自分の子孫が苦労するようにわざわざ強制するのは私は好まない。

もうひとつ考慮すべきは、ニューヨーク大学名誉教授のゲイリー・マーカス氏のAGIの定義についての意見だ。彼は「人間を超えるAGIは、その人間が誰のことかによって話は変わる」と述べている。その人間とは赤ちゃんなのか、中学生なのか、大学教授なのか、天才なのかだ。AI原理主義者とも言える私たちAI研究者は、LLMはホワイトカラー労働者と同じことはできるかもしれないが、天才は超えられないと思っている。天才どころか、LLMは赤ちゃんすら超えられないと思っている。LLMは赤ちゃんが発見できる事を発見できないし、それは将来も変わらないからだ。

ということはホワイトカラー労働者は赤ちゃん以下の知性ということになるが、私はこれは真だと思っている。赤ちゃんに劣るホワイトカラー労働者すなわち大衆はハラリ氏の考えているAIとどっこいどっこいだろう。赤ちゃん以下のAI v.s. 赤ちゃん以下の大衆の戦いと取れば本書の主張するAIと人類の戦いが起こるというのはあり得る。ただし、これは子犬同志がけんかしているようなものだ。それは考慮すべき重要事ではない。

0 件のコメント:

コメントを投稿