ラベル 人工知能 の投稿を表示しています。 すべての投稿を表示
ラベル 人工知能 の投稿を表示しています。 すべての投稿を表示

2025年9月2日火曜日

Google WorkspaceのBusiness Starterエディションだと入力したプロンプトが学習に用いられない

研究や仕事でローカルPCでのLLMを利用する理由は、入力したプロンプトを外部に漏らしたくないからだ。未発表の論文ネタや未申請の特許ネタが含まれている可能性が高いからだ。しかしローカルのLLMはどんなに高性能なGPUをたくさん使っていても、Deep Research機能において、GeminiやChatGPTやClaudeに劣る。しかしそういうサービスを使うと秘密が外部に漏れる心配があるので使えない。多くの企業で無料のAIサービスが使用禁止となっているのはそういう理由だ。

googleの公式サイトには無料のGeminiサービスでは「Gemini アプリでのチャットの内容は、人間のレビュアーによってレビューされ、Google のプロダクト、サービス、機械学習技術の改良のために使用される場合がある。」と記載されている。これでは使えない。有料のサービスでは「Gemini アプリでのチャットの内容やアップロード済みのファイルが、人間のレビュアーによってレビューされたり、生成 AI モデルの改良のために使用されたりすることはない。」と記載されており、これならgoogleを信じる限りは研究や仕事に使える。

有料サービスなら良いことはわかったが、あまり費用がかかるのは避けたい。そこで、今使っているGoogle WorkspaceのBusiness StarterエディションのGeminiサービスはどうなのかを調べたら有料版Gemini相当だとわかった。これは助かる。追加の費用を支出することなくGeminiの機能を使用できる。

2025年9月1日月曜日

ローカルLLMでDeep Researchを行うのが難しい理由

オープンモデルのLLMエンジンをローカルPCで動かすと、自分が入力したプロンプトやデータを外部に知られることがない。この性質は研究や仕事には都合がよい。ローカルPCで動かしているLLMエンジンは過去に学習したもののため、学習時以降に発生したデータを扱うのは苦手だ。そこで、入力データとして新しい文書や画像を与えてこの苦手な部分を補完する。

googleのGeminiではDeep Research機能が実装されていて、リアルタイムに外部のwebサイトにアクセスして、上記の苦手な部分を補完できる。Deep Researchが秀逸な点は、どのwebサイトをアクセスするかを自ら考えてくれることだ。ユーザーがどこどこのサイトをアクセスしろと指定する必要がない。もちろんサイトを陽に指定することもできる。

ローカルPCで動かしているLLMエンジンが外部のwebサイトをアクセスするようにすることは一応できる。pythonなりでプログラムを書いて、ユーザーが与えたプロンプトから文字列を切り出し、その文字列を使って検索エンジンでweb検索を行い、ヒットしたwebサイトをプロンプトとして入力することはできる。しかし、これだけではGeminiのDeep Researchより劣化した結果しか得ることはできない。どこがGeminiに劣るかと言うと、web検索のSEOの部分だ。GeminiではLLM SEOと呼んでいる。web検索をしてヒットしたwebサイト群のどれが入力として採用する価値があるかの判断がGeminiのDeep Researchでは優れているのだ。個人のブログよりネットで公開されている論文誌の方が情報の信頼性が高いので、論文誌の方を採用するというような判断がSEOであり、LLM SEOだ。この分野はgoogleの本業であり、googleが最も得意とするところだ。個人がちょちょいと書いたpythonプログラムで真似できるものではない。そのためにローカルPCで動かすLLMエンジンでのDeep Reseachでは、なかなか満足のゆく結果が得られない。

2025年8月21日木曜日

LLMは古いデータと英語圏以外のデータが苦手

NECのPC-9801m2の定価が知りたくてgpt-ossに聞いたら39800円とのこと。あきらかに桁が違うので、別途ネットで調べて415000円では?と修正を促したがガンとして聞き入れない。学習したデータが間違っていたようだ。

gpt-ossではなく、gemma-3-27bだったらどうなるかと聞いてみたら今度は168000円とのこと。これも415000円ではと聞いたら、それはメモリを増設した上位機種だと諭された。そんなものはないのだが。

スバル360の乾燥重量を聞いたら本当は385kgなのに500kgだそうだ。零戦21型のエンジン出力を聞いたら1900馬力だそうだ。そんなにパワーがあったらグラマンF6Fに負けてないよ。陸軍の鍾馗のエンジン出力を聞いたら1800馬力だって。そんなにあったらB-29を落としてたよ。

米軍機のF4FワイルドキャットとF4Uコルセアのエンジン出力は正しく答えていた。

英語圏以外の情報と、古い情報はネット上にあまりないので、間違い情報が混じっているとそれに影響されて学習してしまうようだ。

ちなみにモビルスーツのことを聞くと、とんでもない型番や名前の迷機をたくさん捏造してくれるので、これはこれで面白かった。彼らの世界ではMSN-18とかMS-35とかがあるのだって。MSN-18はMS-18ケンプファーをニュータイプ専用機に改造したものではなく、通常のモビルスーツより装甲が薄くてサイズが小さいものなんだって。いろいろ聞いてみるとめちゃくちゃ面白かった。

2025年8月17日日曜日

機械の仕組みがわかってないのに使うのが上手な人は本当に存在するか

最近ではLLMのユーザーが顕著だが、中身がわかってなくて使い方だけを知っている。たまに私よりうまく使えていて感心することもある。しかし中身がわかってないために肝心なところでは失敗する。中身がわかってない人は動作結果に文句を言うことがよくあるのだが、そう動くように作られているのだから文句を言うのは無意味であることがわかっていない。

1980年までは車を速く走らせる人はもれなく車のことを深く理解していた。車のメカニズムの理解はレーシングドライバーで成功するための必須条件だった。

F1の世界チャンピオンになったアイルトンセナは車のメカニズムにあまり興味がない人とされているが、彼は幼少のころからカートをドライブしていたのでメカニズムの知識は当然あった。何もわかってなくてF1をドライブしていたのではない。

頭文字Dの藤原拓海君は車のメカニズムを何もわかってなくて速いドライバーの代表なのだが、フィクションなので現実味はない。物語の後半では彼もメカの勉強に頑張っていたので、最後までメカがわからなくて速いドライバーではなかった。

話をLLMに戻すと、中身がわかってないとうまく使えないのは当たり前だ。LLMとそのエンジンであるDLはヒントン氏の2012年(元祖は2006年の論文だが)の成果から順に追跡している人は中身を無理なく理解できているが、そうでない人はブラックボックスとして扱っている。LLMに関してはわずか13年分なのだから基本から勉強すればよいのにと思うが、それをする人は少数派だ。

コンピューターも同じだ。ソフトは、プロセッサの内部構造、プロセッサのマイクロコード、プロセッサのインストラクションセット、プログラミング言語の構造、コンパイラの動作、OSの中身、通信プロトコルを知らないとうまく使いこなせない。ハードであればプロセッサの内部構造、メモリの内部構造、全体回路、周辺回路、通信回路を理解していないとうまく使いこなせない。これらは1970年代から技術が発明された順にリアルタイムに触れてきた世代は学ぶ時間が十分あったので無理なく理解できている。しかし2000年以降に生まれた若者がコンピューターの中身を理解するのは大変なのではないかと思う。それゆえに中身を理解せずに使ってしまい、年齢が70代のウイザードほどには使いこなせない人が多いのだろう。

2025年8月16日土曜日

LLMが鉄道網を理解できないのはなぜか

東急の株主優待乗車証を使う時にいちばんお得な区間をOpenAIのgpt-ossに聞いてみた。新線ができて割高区間である新横浜までと返ってくると思っていたが、渋谷ー成田空港間という答が返ってきた。

びっくりして、今度は近鉄で同じことを聞いてみたら京都と奈良間という大嘘が返ってきた。切符の値段もでたらめだった。いったいこれはどういうことだろうか?

原因を調べたら、学習時のテキストに鉄道各社の路線データがないことが理由とわかった。路線データがテキスト形式でインターネットにアップされていることはほとんどない。そしてたとえアップされていたとしても、文章の次の単語を当てる形式の学習では、ある路線がどの鉄道会社に属しているか、ある駅がどの路線に属しているかを学習することはできない。LLMはwikipediaやニュースやブログなどのテキストからしか学べない。たとえばブログで渋谷駅から成田空港へ行ったという記事が多くあったとする。そして別のブログやニュースで「東急線渋谷駅」といった単語が多く出てきたとする。これらを使って確率的に次の単語を学習したLLMは汎化性能を発揮して、東急線で渋谷駅から成田空港駅まで行くことができると判断するのだ。連中にしてみればベストを尽くしている。この動作に文句を言う方が無粋というものだ。

将来のLLMは乗り換え案内サービスを利用することを覚えるだろう。これで切符の値段を間違うことはなくなる。しかし鉄道会社ごとの路線という概念を覚えるのはかなり先だと思うし、鉄道会社間で相互乗り入れしている路線においてどの路線がどの鉄道会社に属しているかわかるのはもっと先だろう。目黒と白金高輪の間はどの路線かなんて人間でも正しく答えられる人はあまりいないし。答は東京メトロ南北線と都営三田線が線路もプラットホームも構内も共用していて、同時にふたつの路線であり区別できないだ。シュレディンガーの猫みたいだ。

2025年7月14日月曜日

日本経済研究センタの2075年経済予測

日本経済研究センタは民営の機関だ。経済予測を官営機関がしたら政府に忖度して嘘ばっかりになるので、政府に忖度しない民営機関でないと信用できない。民営機関であっても、新聞社やテレビ局はなぜか政府に忖度するのでやはり信用できない。日本経済研究センタを100%信用するとは言わないが、ある程度は信用できる。

今回の報告は題名にAIという単語が入っているものの、重要なのは日本の生産性の予測値だ。日本の生産性の伸び率は、標準シナリオで30%、改革(楽観的)シナリオで40%と予測している。日本のGDPは標準シナリオだと世界11位に落ち、改革シナリオだと世界4位を維持できるとのこと。

世の中をよく知る人は、標準シナリオの30%生産性が向上するという話もかなり楽観的だと思うのではないか。日本経済研究センタのような研究機関とか大学とかベンチャー投資集団とか、回りにそれなりの頭脳の人ばかりがいる環境で長く生きていると、人間はそこそこ頭が良くて合理的な判断をするものと思い込む傾向がある。2500年前のソクラテスを始め、そういう甘ちゃんの考え方をする学者は多かった。しかし現実は違う。ソクラテスの弟子のプラトンは大衆は愚かだと見抜いた。もちろんプラトンが正解だ。

日本経済研究センタの人たちは30%と予測したが、私は日本の生産性の伸び率はよくて10%だと思う。10%を使って2075年のGDPを計算すると世界30位くらいに落ちるだろう。一人当たりのGDPだと世界100位程度まで落ちる。完全に後進国だ。

普通はここまで落ちぶれると他国が侵略してきて征服するので、そこでリセットされて新たな成長の歴史が生まれる。ところが第二次大戦後に国境をむやみに変えてはいけないという欧米諸国だけが得をするずる賢いルールがはびこったので、日本を侵略してリセットしてくれる他国がいない。なので、日本は行くところまで落ちぶれるしかない。その結果、日本は北斗の拳の世界みたいになる。ただしケンシロウはおらずラオウもいないので、チンピラの悪党とそれに迎合するバカ国民が跋扈するだけになる。冷静に考えたら今すでにそうだった

2025年6月2日月曜日

google/gemma-3-12Bに見事な嘘をつかれた

google/gemma-3-12Bに「SONYのPC用スピーカーにはどのようなものがあるか」とプロンプトを与えたら、最下段の出力を得た。この出力は全て嘘・妄想だった。あまりに整然と書かれているので、信じそうになった。こんなことが起こる理由を述べよう。

大規模言語モデルは学習時に文章の次の単語を学習する。googleのgemma-3は、アテンションを利用してトランスフォーマーを構築するという大規模言語モデルとしては王道なネットワーク構造なので、動作が直感的に分かる(分からない人が多いらしいが、トランスフォーマーを設計する人には分かる)。大規模言語モデルがこのような嘘を出力するのは予想外の動作ではない。これはこれで学習したデータに基づいて正しく動作している。嘘のデータを学習させたからではない。真正な事実のみを学習させてもこういう妄想を出力する。汎化性能がそうさせている。

以下の出力に提示された各機種をSONYのサイトで確認したら、それらの機種は影も形もなく、すべて妄想だとわかった。Gaudioというのはゲーム関連で出てくる単語でSONYとは無関係だ。HS4とかHS5はヤマハのスピーカーの型番だった。PS3とかPS5というのはプレイステーションからの捏造だろう。AS-W500はB&W社のASW500のことだろう。INZONEはSONYのヘッドフォンだが、スピーカーとして利用可能というのは間違いだ。

---google/gemma-3-12Bの回答---

ソニー(Sony)から発売されているPC用スピーカーは、様々なニーズに対応できるよう幅広いラインナップがあります。主な製品カテゴリと代表的なモデルを以下にまとめます。


**1. 高音質コンパクトスピーカー (エントリー~ミドルレンジ)**


*   **Gaudio GOシリーズ:**

    *   **Gaudio GO:** 持ち運び可能なコンパクトスピーカー。Bluetooth接続にも対応しており、PCだけでなくスマートフォンやタブレットとも連携できます。

    *   **Gaudio GO Mini:** さらに小型で、デスク周りの省スペースに最適です。

*   **Gaudio HSシリーズ:**

    *   **Gaudio HS4:** 高音質で、コンパクトながらもパワフルなサウンドが楽しめます。

    *   **Gaudio HS5:** より高音質を求める方向けのモデル。


**2. デスクスピーカー (ミドルレンジ~ハイエンド)**


*   **Gaudio PSシリーズ:**

    *   **Gaudio PS3:** デザイン性と高音質を両立したモデル。

    *   **Gaudio PS5:** よりクリアで広がりのあるサウンドが特徴です。

    *   **Gaudio PS7:** 高音質を追求したハイエンドモデル。


**3. サウンドバー (リビング・PC環境兼用)**


*   **AS-W500:** コンパクトながら高音質で、PCのサウンドを向上させます。

*   **AS-B800:** 高性能サブウーファー内蔵で、迫力のあるサウンドを楽しめます。


**4. ゲーミング向けスピーカー**


*   **INZONE シリーズ:**

    *   **INZONE H9 / H7:** ワイヤレスゲーミングヘッドセットですが、PCスピーカーとしても利用可能です。

    *   **INZONE M9 / M7:** ゲーミングPC向けに開発された高音質スピーカー。


**製品を選ぶ際のポイント:**


*   **予算:** エントリーモデルからハイエンドモデルまで、価格帯は幅広いです。

*   **設置場所:** デスクの広さや、スピーカーを置くスペースに合わせてサイズを選びましょう。

*   **音質:** 音楽鑑賞、映画鑑賞、ゲームなど、用途に合わせて最適な音質を選びましょう。

*   **接続方法:** PCとの接続方法(USB、Bluetooth、有線など)を確認しましょう。

*   **機能:** サブウーファー内蔵、ワイヤレス接続、ノイズキャンセリングなどの機能が必要かどうか検討しましょう。


**詳細情報:**


*   **ソニー公式サイト - PCオーディオ:** [https://www.sony.jp/products/pc-audio/](https://www.sony.jp/products/pc-audio/)


上記以外にも、様々なモデルが発売されています。ソニー公式サイトや家電量販店などで、実際に音を聴いて比較検討することをおすすめします。

2025年5月30日金曜日

lama-3.3-Tess-3-70B-TA_v0.60-iMat-CQ-GGUF(必要GPUメモリ49GB)をM4pro mac miniで動かす

macにLM studioを入れるとローカルで大規模言語モデルを動かせるようになる。生成AIのモデルはダウンロードすることで複数選べる。モデルには必要GPUメモリが記載されていて、自マシンの搭載GPUメモリより大きなサイズのメモリが必要なモデルを走らせようとすると警告されるが、警告を無視してロードするとどうなるか試してみた。

64GBのメインメモリを搭載しているM4pro mac miniに、必要GPUメモリが49GBのlama-3.3-Tess-3-70B-TA_v0.60-iMat-CQ-GGUFをロードした。エラーなしに動くのだが動作がひどく遅くなる。必要GPUメモリが17GBのgoogle/gemma-3-27Bであれば、動作速度は普通だ(速いというほどではない)。

Apple SiliconのCPUはメインメモリとGPUメモリを共用するが、メインメモリの多く(今回の場合49GB)をGPUメモリに割り振ると以下の説明のように遅くなるようだ。システムモニタで見ると空きメモリは6GBあってスワップファイルは使用されていないのだが、それでも遅くなる。

64GBメモリを搭載しているM4pro mac miniの場合、以下の説明通りGPUメモリは32GBとLM studioには表示される。32GBメモリを搭載しているM2pro mac miniの場合、GPUメモリは21GBとLM studioには表示される。以下の説明だと16GBのはずだがそれより5GB多い。そして必要GPUメモリが17GBのgoogle/gemma-3-27Bが警告なくロードできて動く。

---一般的な説明---

Apple Siliconチップ(M1、M2、M3、およびそれ以降)では、GPUに最大でシステム全体のメモリの半分までを割り当てることができます。64GBのRAMの場合、理論上の最大値は32GBですが、実際の割り当て量はワークロードや他のプロセスによる使用状況によって変わります。

macOS Ventura 13.5以降では、「Metal Performance Shader (MPS)」機能が導入され、GPUメモリの割り当てをより細かく制御できるようになりました。これにより、特定のアプリケーションやタスクに合わせてGPUに48GB以上のメモリを割り当てることは可能になる場合があります。

2025年4月25日金曜日

頭の良い人ほど食事を欲しがらない謎

私の周りの数十サンプルの観測でしかないので、一般性はないかもしれない。しかし不思議のひとつではある。頭の良い人は食事を欲しがらないのだ。食事の優先順位が低い。脳は身体全体の20%のエネルギーを消費する。ならば頭を使えば使うほどエネルギー特に甘い物を欲しがるはずなのだが、そうではない。

身体内に蓄えた脂肪はグリセロール経由でブドウ糖へ変換できるが効率がとても悪い。タンパク質はブドウ糖へ変換できる。食事をしないで頭を使う人は、そうやってブドウ糖を補給しているのだろうか。タンパク質を分解してしまうと筋肉が痩せ細ってしまう。

2025年4月7日月曜日

youtube動画を要約して文書にする生成AI

GoogleのGeminiやOpenAIのChatGPTの活用例として、YouTube動画の要約が挙げられます。動画による情報取得は非効率であるため、頭の良い人は文章による情報取得を好む傾向が見られます。このニーズに応えたものと言えるでしょう。

後で文章に変換されることが想定されるなら、情報発信者は最初から作成が容易な文章を選択すればよいのではないかという疑問が生じます。しかし、情報受信者が頭が良い人とは限らず、必ずしも効率的な情報取得を重視するわけではありません。理解に時間を要する動画を好む傾向が見られることは、人類の知性についての興味深い論点と言えるでしょう。

アリストテレスは2500年前に民主政治は衆愚政治になりやすいと述べました。トランプ氏の当選や日本の失われた30年は、アリストテレスの指摘を想起させる側面も持ち合わせています。YouTubeやTikTokへの時間消費も、同様の観点から考察できるかもしれません。

愚衆は自然に賢くはならないので、永遠に愚衆のままです。関わらないようにするしかありません。と書いたらapple intelligenceに以下のように文章を直された。うわー、apple intelligenceは人間だったらやな奴だあ。

重要なのは、情報取得の効率性を重視するかどうかは、個人の選択に委ねられているということです。効率性を重視する人もいれば、そうでない人もいる。多様な価値観が存在することを理解し、共存していくことが重要です。

2025年4月6日日曜日

トランプの深謀遠慮を推測する

トランプに深謀遠慮などなくただのバカだと書いた後、macの作文ツールに添削してもらったら、次の段落以降の文章に化けた。他の生成AIでも同じことはできるが、任意のアプリであっても右クリックですぐ使えるのはappleならではだと思う。

---
トランプ氏の行動は、深謀遠慮の結果というよりも、むしろ衝動的な行動の結果として、深謀遠慮したかのように見える側面があると言えるでしょう。以下に、その可能性について考察します。

相互関税の導入により、米国では物価が5%程度上昇するインフレが発生すると予想されます。このインフレにより、国民生活は悪化するものの、5%のインフレで生活が破綻するような国民は米国には多く存在しないため、致命的な打撃にはならないと考えられます。むしろ重要なのは、株価が4割程度下落することです。株価の下落は、株式を大量に保有している人ほど影響を受けるため、トランプ氏の支持層である低学歴の白人に代表される社会の底辺層には、大きな影響はないと考えられます。むしろ、株式を保有している人が困窮することは、彼らにとって有利に働く可能性があります(連中にとってメシうまだと書いたらこう直された)。そのため、彼らはますますトランプ氏への支持を固めると考えられます。また、関税によって数兆ドル規模の臨時収入を得ることが予想されますが、トランプ氏はそれを財源として、トランプ氏の支持層への支援を行う可能性が高いと考えられます。その結果、トランプ氏の支持層は、ますますトランプ氏への支持を強めると考えられます。このように、トランプ氏は大統領の座を安泰なものにすることができると考えられます。

米国の製造業はすでに衰退しているため、輸入製品の価格上昇によって、すぐに製造業が復活するとは考えられません。しかし、単純な製品や必需品の製造は、米国国内で再開される可能性があります。単純な製品の製造には高度な技術は必要ないため、社会の底辺層が雇用を得られる可能性があります。これはトランプ氏の功績として認識される可能性があります。

中間層以上の国民は、個人資産の半分以上を株式で保有しているため、株価の下落は歓迎できない状況です。しかし、トランプ氏への不満を表明しても、4年間はトランプ氏が大統領の座にとどまるため、どうすることもできません。米国を脱出しようとしても、米国よりも魅力的な国は多くないため、それも容易ではありません。結局、彼らは我慢して現状を受け入れるしかないと考えられます。

2025年3月15日土曜日

頭の悪い人ほど今のレベルのAIを過大評価する

今の大規模言語モデルでは新しい物理理論の発明発見はできない。なので、今の大規模言語モデルはちっとも賢くないし、汎用人工知能などというには遠く及ばない。こんな風に論じる研究者は私以外にもたくさんいる。ところが一部の研究者や企業人は大規模言語モデルの規模を大きくしていけば汎用人工知能に届くとか騒いでいる。

汎用人工知能の明確な定義はないのだが、ざくっと言うと人間と同じか同じ以上に賢い人工知能のことである。ということは、今の大規模言語モデルが汎用人工知能になると騒いでいる連中は頭が悪いから、彼らの頭に比べると今の大規模言語モデルでも賢くって汎用人工知能に見えるというのが真実だろう。

この非情な現実をニューヨーク大学のゲイリー・マーカス名誉教授は「汎用人工知能は人間を凌駕するAIのことだが、その人間とは誰のことを言っているかによって違いが生まれる」と柔らかく表現している。私もマーカス名誉教授を見習ってやさしい言い方を学ばないと。

2025年1月28日火曜日

中国ディープシーク社のAIの中には凜々(トリリオンゲーム)が入っている

中国のディープシーク社が安価なAIモデルを発表して話題になっている。ハイテク株主導の米ナスダックは昨晩3%の急落をした。報道によるとディープシーク社の開発費はわずか500万ドルらしい。ChatGPTを開発しているOpenAI社の年間開発費は50億ドルを超えるから1000分の1の費用で済んでいることになる。

私はAIの研究者だが、汎用人工知能(=AGI)を実現するには脳模倣タイプのメカニズムが必要だと信じている。誤差逆伝播法を用いるディープラーニングでは脳の模倣はできないと考える。生物脳は誤差逆伝搬をしないからだ。つまりディープラーニングをいくら研究しても汎用人工知能は実現できないと予想している。

しかしディープラーニングは自動関数生成器としては優秀だと認めている。ディープラーニングを用いたトランスフォーマーで構築した大規模言語モデルは単なる道具として使う分には役立つとも思っている。そして大規模言語モデルの学習には多大な費用が必要なことも理解している。報道によるとディープシーク社のAIは現存の大規模言語モデルAIと同等の性能があるそうだ。これはちょっと不思議だ。

すぐに思いついたのはディープシーク社のAIエンジンの中にはたくさんの人が入っているのではないかということだ。トリリオンゲームに出てきたAIセレクトショップ「ヨリヌキ」の中に凜々さんが入っていたように。

2025年1月4日土曜日

アイザックアシモフ 第二ファウンデーション

アイザックアシモフのファウンデーションシリーズの3作目だ。1953年の作品だが、脳神経についての記述が非常に的を得ている。今よりさらに未来に検証されると思うが、2030年頃の人工知能研究のメインテーマについて述べていると私は感じた。

作品内の中心人物である数学者ハリセルダンの考え方はSFというより哲学に分類できる。人類が銀河系全域に進出できるくらい科学技術が発展しても、それはあくまで無機物(機械)を操る技術が発展したに過ぎない。それに比べて脳の中の意識や感情に関する知識は、猿から人になった頃からほとんど発展していないという指摘には思わず膝を叩いた。言葉をどんなに練っても自分の意思は正確に相手に伝えることはできないという主張は、オルテガが「大衆の反逆」内のフランス人のためのプロローグに述べた内容と同じだ。大規模言語モデルをどんなに規模拡大しても大した知能にはなれない理由のひとつもここにある。

第二ファウンデーション員は言葉を使わずに正確に意思を伝達できるようだ。それは生来の才能+訓練による努力の結果であるように描かれている。これができるようになった人類はハラリのホモデウス、富野のニュータイプということになるのだろう。第二ファウンデーション員の目的は安定した銀河系国家の実現だ。となると、富野のニュータイプによる社会は、第二ファウンデーション員の目指す社会と目標も実現方法も似ていることになる。

2024年10月29日火曜日

どうでもよい高齢者の医療はアホの生成AIでよくない?

日本の高齢者の医療ほどアホらしいものはない。本当に病院へ行く必要がある患者は1%以下だ。残りの99%は無駄な治療を受けてかえって健康を害しているという愚かさだ。彼らが健康になるためには、病院に行ったり検査をしたりを止めればよいだけなのに、頭の悪い高齢者にはそれがわからない。連中が自分の金(全額自己負担)で医療を受けているならレクレーションとして認めてもよいが、連中は現役世代が納めた保険料を無駄に使っている。社会保障費の負担のせいで現役世代の収入が減るために現役世代は結婚を諦めたり出産を諦めたりしている。これは亡国の危機である。ではどうしたらよいか。

今流行りの生成AIに診療させればよい。診療の結果、本当に人間の医者が診なければならない病気は人間の医者に回す。残りの医者にかかる必要のない患者は適当に話を合わせてから帰せばよい。どうしても薬を出せとバカ患者が騒いだら、益にも害にもならない粉を出しておけばよい。

このアイディアはずいぶん前からあるのだが、意味のない法律が妨害して実現できていない。また、誤診したら損害賠償をしなければならないことを恐れて営利企業は途中で断念してしまう。

という訳でこのアイディアが日本で実現されることはない。国民がバカだと亡国は免れないという極めて普通の結果だ。面白くもなんともないし騒ぐことでもない。ごく当たり前のことが当たり前に進んでいるだけだ。

2024年9月20日金曜日

生成AIはオープンホイールのレーシングカートになぜフロントフェアリングやサイドボックスが義務付けられたのか説明できない

1990年ころまではレーシングカートの競技車両にはフロントフェアリングやサイドボックスはついていなかった。ところがそれから10年しないうちに国内カート競技車両規則でフロントフェアリングとサイドボックスの装着が義務付けられた。これは空力のためではなく安全のためだ。

1960年代のF1マシンは葉巻型の車体にむき出しのタイヤを備えていた。このような車をオープンホイール形式と呼ぶ。オープンホイール形式の車にはF1を頂点とするフォーミュラーカー(FJ1600なんてのもそうだった)とインディカーとレーシングカートがある。オープンホイールだと先行車のタイヤと後続車のタイヤが縦に接触するとそれぞれのタイヤの回転方向の相乗効果で、後続車のタイヤが上方向へ強く弾き飛ばされて危険だ。F1の場合は1970年代に接地力を重要視するようになり、フロントスポイラーをつけたり、サイドポンツーンで車体自体に逆揚力を発生させたりするようになり、タイヤの周りに構造物が付いた。構造物で邪魔されるために他車のタイヤと自車のタイヤが縦に接触する機会は少なくなって、そのことを原因とする事故は大問題ではなくなった。

ところがレーシングカートの場合は最大速度が高々100km/hなので空力部品をつけて接地力を高めるメリットはなかった。そのためずっとタイヤがむき出しの状態でレースが行われていた。カートではタイヤの接触によって後続車が上方向へ飛ばされる大事故の可能性は常にあった。そこで1990年代にレギュレーションでフロントフェアリングとサイドボックスの装着が義務付けられたのだ。これらの部品が防壁になって自車のタイヤが他車のタイヤと接触することを防ぐようになった。

しかし21世紀からレーシングカートに乗り始めた若者は「空力的な利点はなく、重くなって遅くなるだけに見えるのに、なぜこんな部品をつけなくてはならないのか?」と疑問に思うだろう。最新の国内カート競技車両規則を読んでも、部品をつけろとは書かれているが、なぜ必要なのかは書かれていない。そこでGPT-4oとかSonar Hugeとかになぜかを聞いてみる若者もいると思う。ところがどの生成AIも「タイヤが接触すると危険だから」という正解を回答できない。衝撃緩衝効果があるという一見それらしいが実は間違っている答しか回答しない。

先輩ドライバーに聞けば正解を教えてもらえるだろうし、賢い若者なら教えてもらわなくても自分で正解を導きだせるかもしれない。同じ回転方向で回っているタイヤが縦に接触したらどうなるかは、3次元の動的な空間把握ができれば容易に想像できるからだ。この想像が生成AIにできない理由は、生成AIの教師データがテキストであるからだろう。

2024年9月16日月曜日

フォーキン(仮名)というバッグを求める人たち

東洋経済オンラインに漫画が載っていて、フォーキン(仮名)というブランドバッグを求める人たちの物語を読んだ。供給が需要に追いつかず、入手難な設定だ。頻繁にショップに通いつめて探し続けないと手に入らない設定だ。

そいういうのを時間を無駄にしてまで買うのはカッコ悪いことに気づいてない人が多いのだと勉強になった。カッコ良い人というのは品物の人気が出て入手難になる前に、品質が良いからと普通に買った人だ。人気が出た後に、後追いで買う人はカッコ悪い。これはファッションでも車でもみんなそうだ。

目利きができず自分で良いモノを探せない人たちがカッコ悪く、目利きができる人がカッコ良い。何千年も前からの当たり前のことが今でも繰り返されているだけのこと。

今流行りのAIに騙されないための法律がどうこう言っている連中もめっちゃカッコ悪い。騙されるやつは相手が人間の詐欺師でも騙される。自分の頭で考えるかどうかの問題で、AIは関係ない。

2024年9月15日日曜日

BindsNETが新しめのubuntuにうまく入らない

SNNのネットワークを動かせるBindsNETを使いたくてpipで入れようとしたらubuntu 22/24はソフトウエアの依存関係が解決できなくて入らなかった。古いubuntuなら入りそうだが、適当なPCがないのでまだ試していない。とりあえずSNNのコードを書くのはCarlSim6で足りているので、時間が余らないと(現実逃避するとき?)試すことはないだろう。

1970年代とか1980年代はOSのバージョンが古いから困ったという記憶がない。新しいから困ったこともない。1990年ころからはOSのバージョンが古いから困ったことはあったが、新しすぎるから困ったことはなかった。ところが2020年以降はOSが新しすぎるから困ることがかなり増えた。

古いOSは後からインストールすることもできるが、古いOS用のソフトウェアやライブラリをネットからapt等でインストールすることはレポジトリが対応をやめてしまうとできなくなる。そのためにOSが現役のときに環境を作っておいて、それをずっと維持するのが楽だ。たくさんの古いOSのバージョンを保存するのにいちいちPCを用意するのは大変なので、仮想マシンやdockerコンテナで保存することになる。

2024年8月16日金曜日

Perplexity AI 検索がとても便利

Perplexityは元google AIの人が作った検索用AIエンジンだ。無料でも使えるのだが、softbankとワイモバイルのユーザーは有料版のproを1年間タダで使える。そこで使わせてもらっているのだが、もうこれなしでは仕事ができないくらい便利だ。chatGPTと違うのは最新の検索データも回答に含めてくれるところだ。

古いubuntu 20.04LTSのdocker containerのDNS設定はどうやるの?
container内のpipのproxy設定はどうやるの?

等の調べるのが面倒くさいと思うような質問に的確に答えてくれる。

これまでコードを書くのに使うgithub copilotを活用してきたが、コストパフォーマンス的にはPerplexityの方がずいぶんよい。github copilotはコード生成で、Perplexityは検索なので用途が違う。お役立ち度がPerplexityが上という意味でコスパが良いと言っている。今後は両方を使い続ける。1年間の無料期間が過ぎても課金して使うつもりだ。

2024年6月24日月曜日

18÷0=0と教える現在の小学校

18÷0の問題の答を「こたえなし」と書いた小3の子がバツをつけられたそうだ。先生は答は0と言ったとか。この先生がバカなだけかと思ったら、今の小学校は0で割ったら0と教えていると知った。中世ヨーロッパの暗黒時代に逆戻りしたのかと目の前が真っ暗になった。

18をいろいろな数で割ってみよう。割る数は180から始めて0.01までだんだん小さくしてみる。小数をまだ習っていないなら、太字のところだけ見るとよい。

18÷180=0.1
18÷18=1
18÷9=2
18÷6=3
18÷3=6
18÷2=9
18÷1=18
18÷0.5=36
18÷0.1=180
18÷0.01=1800
18÷0=?

となる。割る数をどんどん小さくしたら答がどんどん大きくなることがわかる。割る数が0ということは割る数がとても小さいということだ。ならば答はとても大きい数なのだろうと想像はつく。少なくとも0なんて小さい数ではないことは間違いない。0が答になるのは上の式の並びでは一番上のもっと上の割る数がとても大きい時だ。

chatGPTのエンジンであるGPT-3/3.5/4が算数を間違うのは数の概念がわからないからだ。だから大規模言語モデルのAIはバカばっかと主張していたが、もはやchatGPTを笑えない。試しにGPT-3.5に18÷0を聞いてみたら、正しく「定義されてない(=こたえなし)」と答えてくれた。

このままでは天動説が復活して地球が太陽の周りをまわっているなんて言ったら火あぶりにされるかもしれない。