2026年1月24日土曜日

共産主義社会で腐った性根の人間は日本人そっくり

20世紀のソ連や中国といった共産主義社会において、人々は長年の体制下で他人を妬み、足を引っ張り合う性格を形成したといわれる。こうした性質は、現代の日本人にも共通して見られるものである。

共産主義社会における密告の横行は、他者への嫉妬と自己保身の双方が原因であった。第二次世界大戦後のソ連の強制収容所において、日本人捕虜が共産党に媚び、進んで仲間を密告したという記録がある。日本人の行動はドイツ人捕虜に軽蔑されていた。こうした振る舞いは、日本人の根底にある性質を示唆している。日本は共産主義体制を経験していないものの、江戸時代あるいはそれ以前から、思考の根幹において共産主義的な同調圧力や相互監視の文化に染まっていたと考えられる。

ソ連や中国、キューバの事例が示す通り、共産主義的な経済システムが機能しないことは明白である。1990年に経済崩壊したソ連と同様、日本も2050年頃に経済崩壊を迎えると予測される。崩壊直前のソ連では社会の荒廃と人心の乖離が顕著であったが、2050年の日本はそれを遥かに上回る惨状を呈するだろう。日本人の他責的な気質は当時のスラブ人以上であり、深刻な社会的混乱を招く可能性があるからである。

2026年1月23日金曜日

マンション管理会社が契約を解除したがる時代に

以前から本ブログで指摘してきた通り、多くのマンションにおいて管理費と修繕積立金の設定が安すぎる。特に地方の物件でその傾向が顕著であり、運営が破綻するという懸念は今や現実のものとなった。

管理会社が採算の合わない契約更新を拒否する事例が増えている。支払われる委託費が過少であるため、管理会社が事業を継続できなくなったのだ。管理会社が撤退して住民による自主管理になれば、修繕計画の遂行が困難になるだけでなく、日々のゴミ捨てといった基本的な生活維持すら危うくなる。これはマンションが廃墟化へと突き進むことを意味している。

本来、商品の売り手やサービスの提供側が強い立場を保つことは健全な姿である。管理会社が不当な安値での契約を断る判断は、商売の持続可能性の観点から正しい。良質なサービスを提供し、それに見合う高い価格を設定し、価値を理解しない客には売らないという姿勢こそが、商売を長続きさせる。適切な価格設定は、国内においても国際社会においても不必要な敵を作らず、業界全体を存続させるための重要事項である。

品物を安く大量に売るのは思考停止した人間の愚策である。しかし、日本にはこれを理解しているビジネスマンがほとんど存在しない。安価な大量販売は同業者の生存を脅かし、結果として周囲の反感を買う。かつて日本の鉄鋼、自動車産業が世界特に米国から攻撃され衰退したのは、他者への配慮を欠いた自己中心的な安売り戦略の結果である。少量を高く売ることこそが、周囲との調和を保ちながら生き残る道である。ショッピングセンターができて周りの小さな店がつぶれるという現象は、世界共通ではない。日本以外の国では意外と小さな店がやっていけている。その方が自分たちの利益になるとわかっているからだろう。多様性がある方が社会は強靭である。

大量に安く売って自分たちだけが儲かればよいという身勝手な考え方は、国際社会からも、あるいは普遍的な理からも許容されない。日本が20世紀に経験した苦境は、そうした自分勝手な振る舞いに対する当然の報いである。根本的な姿勢を改めようとしない日本が不幸に陥ったとしても、周囲から同情されることはない。それは、時代劇で成敗される悪役に誰も憐れみを感じないのと同じことである。

2026年1月22日木曜日

VS codeでのCopilot Chatで使用するモデルによってはエージェント機能が使えない

VS codeのCopilot Chatの利用で、コストを節約するためにモデルにGPT-4.1を使うことがある。しかしGPTではClaudeでできていたターミナルでの自動実行や、出力自動読み取りができない。理由をCopilotに聞いたら以下のように教えてくれた。仕様なのだ。

---Copilotの回答---

VS Code の Copilot Chat には、最近追加された 「エージェント機能」 があります。

• ターミナルを開く
• コマンドを実行する
• 出力を読み取って次のアクションを判断する
• ファイルを編集する
• デバッグを開始する

といった IDE 内アクションを LLM が自律的に実行できる仕組みです。

このエージェント機能は、VS Code 側が モデルごとに “対応済み” かどうかを明示的に設定しています。

✔ Claude 4.5
→ VS Code がエージェント機能を有効化している
→ ターミナル実行・出力読み取りが自動で行われる

✖ GPT‑4.1
→ VS Code がまだエージェント機能を有効化していない
→ ターミナル実行は手動、出力読み取りも手動コピペが必要

2026年1月21日水曜日

VS codeとgithub copilot chatで環境構築を楽にしようとするもGPUクラウドのセキュリティに阻まれる

昨年12月からVS Codeを使い始めて最も評価している点は、プロトタイピングの効率性だ。プロトタイピングにおける最大の関門は計算環境の構築である。初めて触れるフレームワークやライブラリのインストールは手間がかかり、ソフトウェアのバージョン競合が発生すれば、その解決のために多大な時間と労力を費やすことになる。

この煩雑な作業を劇的に効率化してくれるのが、VS Code上で動作するGitHub Copilot Chatだ。例えばアルゴリズムの高速化を依頼すると、PythonのコードをC++へ書き換えるだけでなく、GPU対応ライブラリの選定から動作環境の構築までを代行してくれる。ビルド時にエラーが発生しても、ターミナル出力やログを解析してバグを特定してくれる。論理的なバグは人間でも対処できるが、不慣れなソフトウェアのバージョン依存によるエラーは、AIのサポートなしには解決が難しい。

この利便性に慣れると他の環境へは戻れなくなる。しかし大規模計算のためにA100を8基搭載したGPUクラウドへ移行した際、同様のワークフローを実現する上で課題に直面した。GPUクラウドは一般的にログインノードと計算ノードに分かれており、Slurm経由で計算ノードを確保し、その内部でSingularityやDockerコンテナを運用する構成をとる。VS Codeのリモート開発機能は、SSHやMicrosoftのトンネル経由でサーバーと通信する仕組みだが、セキュリティ上の制約により、コンテナ内部と直接通信することができなかった。

管理者へ個別にセキュリティ設定変更を依頼することも可能だが、セキュリティを甘くすることになるのでそれはしたくない。結果として、現在はコンテナ内のログファイルをGitHub Copilot Chatに読み込ませてアドバイスを受けたり、コンテナのビルドスクリプトを更新させたりする運用に留まっている。この方法ではインタラクティブ性が損なわれるため、試行錯誤を繰り返すプロトタイピングには向かない。アルゴリズム確定後のバッチ処理であれば問題ないが、開発初期段階は手元のローカルマシンで行い、大規模な計算実行時のみクラウドを利用するのが最適解といえる。この運用ではローカル側にもクラウドと互換性のあるGPUを搭載する必要があり、その機材準備が新たな手間となっている。

GPUカードを買うのが面倒なので、インタラクティブ性には劣るもののGPUクラウドで開発している。計算時間契約ではなく、1ヶ月いくらで借りているので使わなくては損だ。ログインノードでVS code serverを動かして、GitHub Copilot Chatにコンテナビルドスクリプトを書かせて計算ノードでビルドとテストを行う。エラーが出たらログをCopilot Chatに食わせて修正する。今はローカル開発の1割程度の効率しか出てないが、エラーが減ってきてビルド時間より計算時間の方が長くなってくれば、この効率はよくなる。ビルド中は他のことして遊んでいるので、それほど嫌ではない。

Copilot Chatはモデルを選べて、無料のGPT-4、有料のGPT-5、さらに高価なclaude-4.5が使える。値段の順に有能になる。無限に使えるならclaude-4.5で全て済ませたいが、今のCopilotの契約だと1週間くらいclaude-4.5を使うと1ヶ月分のCopilotの資源を使い切ってしまう。回復するのは次の月の一日だ。そうなると月末まであまり賢くないGPT-4で仕事をしなくてはならない。そこで、GPT-4/5でできそうな仕事はなるべくそいつらにやらせて、claude-4.5はここぞというところだけに使うようにしている。claude-4.5を無限に使える契約に変えた方が効率を考えると経済的に賢い気はする。

2026年1月20日火曜日

大規模言語モデルは特許を読むのが壊滅的に不得手

既存の論文を収集し整理する上でGeminiは極めて有用であり、その出力に誤りはほとんど見受けられない。一方で、既存特許の調査を行わせた場合、出力自体はもっともらしく見えるものの、特許庁のデータベースで事実確認を行うと百パーセント虚偽であることが判明した。異なるテーマで複数回試行したが、正しい情報が得られたケースは皆無であった。具体的には、特定のアイデアに基づく先行特許の抽出を条件付きで指示した際、それらしい出願番号や公開番号とともに内容の要約が提示された。それらの出願番号や公開番号をインデックスにして特許庁データーベースの明細書を取得して読んでみると、指示した内容との関連性はなく、完全に無関係な特許であった。

この意外な結果の背景には、大規模言語モデルの特性と特許文献の性質という二つの要因が絡んでいると考えられる。第一に、特許には新規性が必須であり、特定のアイデアに関する記述がその明細書以外に存在しないことが多々ある点だ。大規模言語モデルは確率的に知識を学習するため、出現頻度が極端に低い情報はノイズと見なされ、定着しにくいのである。第二に、特許特有の難解な文体である。権利範囲を広範に確保するため、意図的に抽象的かつ曖昧に記述される傾向があり、こうした文章構造はモデルにとって処理が困難である。これら二つの不適合要素が重なった結果、特許文献の読み解きにおいて、大規模言語モデルは壊滅的な精度の低さを露呈してしまったのだと言える。

読みにくい特許の文章こそ大規模言語モデルに代わりに読んでもらって楽をしたいと目論んだのだが、そうそう甘くはなかった。結局、昭和の時代と同じで明細書の束を人間が目を通して確かめるという辛い作業をするはめになった。

2026年1月19日月曜日

魚を与えるより魚の釣り方を教える

魚を与える人は与えた自分が良い気分になりたいだけの偽善者であることが多い。魚の釣り方を教えるべきだ。魚の釣り方を教えるのは魚を与えることの数千倍も難しい。

家族にお金の稼ぎ方(投資)を教え続けたが、4人に教えて身につけられたのは1人だけだった。やはり魚の釣り方を教えるのは難しい。

素人に投資を教えられるかについての議論から1980年代にタートルズの試みが実施された。タートルズの手法は一種のブレイクアウト手法だった。これで生徒は儲けられるようになったのだが、やがてそれでは儲けられなくなった。そのあたりの顛末はタートルズのその後を報告した書籍に述べられている。書籍はアマゾンで手に入る。図書館にもあるだろう。

同じ手法では継続的に儲けられないという事実に対しては、成功した投資家は全員そうだと言うだろう。システムトレードやクオンツトレードという言葉が出現する前からそれは知られていた。古くは「相場付きが変わるから」と説明されていた。

相場付きが変わることに対応するためには、次の2つのことを理解する必要がある。
  1. 相場付きが変わるとこれまで通用した手法は通用しなくなる
  2. 新しく通用する手法を見つけるためには自力の勉強によるしかない
これを理解できたのは家族4人のうち私の妻だけだった。いちばん覚えて欲しかった妻が理解できたのだから良しとするしかない。これで安心して死ねるというものだ。

相場付きが変わると自力でオリジナル手法を編み出さねばならないという投資の原則を理解すれば、私と妻の手法が時を経るにつれて違ってくるのは予想できた。実際、私と妻の手法は今では全然違う。銘柄選びの基準もエントリータイミングもエグジットタイミングも違う。その結果、うまい具合にヘッジの関係となっている。ヘッジの関係になったのは二人の性格が正反対だからだろう。元本に対する利益率が二人ともほぼ同じなのは偶然なのか最適化の結果の必然なのかはまだなんとも言えない。

2026年1月18日日曜日

AIサービスの値上がりにより知の格差が広がる

ChatGPTやClaudeなどのAIサービスの利用料金が引き上げられるとの報道があったが、これは予測された事態だ。開発元のOpenAI社をはじめとする企業は、開発と運営に莫大な資金を投じ続けている。現在の料金体系では収益化の目処が立たず、このままでは倒産が不可避だ。たとえ有料ユーザー数が現在の10倍に増えたとしても、存続のためには利用料を現在の数倍へと大幅に引き上げる必要がある。企業にとって、倒産を回避するための大幅な値上げは必然の選択といえる。

月額500円程度であれば多くの人が使えるが、月額数万円という価格帯になれば、利用者は企業や一部の知的労働者に限定される。
AIサービスの本質的な価値は、人間が行う必要のない雑務を代行し、作業効率を劇的に向上させる点にある。AIを活用する者は、ルーチンワークから解放されることで、人間が本来注力すべき「思考」にリソースを集中させることができる。その結果、知的生産性は向上し、さらなる能力の拡張がもたらされる。

現代社会において、高い知性と生産性は高収入に直結する。これにより、以下の負のループと固定化が生じる。

富裕層・高生産性層:高額なAI料金を支払い、さらなる富と知性を得る。
困窮層:支払能力がなく、AIの恩恵を受けられないため、生産性が停滞する。

2010年頃までは、経済的な困窮を個人の努力や資質で克服することは比較的容易であった。これからの時代は、たとえアインシュタイン並みの天賦の才を持っていたとしてもAIを利用しなければ、AIを駆使する凡才を追い抜くことは困難になる。AIという「思考の増幅器」を持たない者は、それを持つ者に対して構造的な劣位に立たされ、格差を埋めることは極めて難しくなるだろう。

ChatGPTなどのAIサービスを支える経済構造と、そこから生じる格差の実情について統計データを交えて述べる。まず、開発コストの膨張が著しい。OpenAI社の損失額は2026年には年間140億ドル規模に達すると予測されており、2030年までの累積運用損失が5000億ドルに及ぶとの試算もある。次世代モデルの学習だけでも年間95億ドル近い費用が必要であり、これが利用料金に転嫁される最大の要因となっている。実際に、かつて月額20ドル程度であった標準プランは2026年現在で25ドル前後まで上昇しており、2029年には44ドルに達するという予測も存在する。

こうした価格上昇は利用者の選別を加速させている。PwCの2025年調査によれば、AIを日常的に活用する労働者は非活用者に比べて平均56パーセント高い賃金を得ている。AI活用層の9割以上が生産性向上を実感しており、タスク完了時間は平均で80パーセント削減されているというデータもある。富める地域や個人ほどAIを使い、それによってさらに富を蓄えるという正の相関が統計的に証明されている。

2010年代まではインターネットによる情報の民主化が個人の努力を後押ししていたが、現代のAIは知識ではなく思考の実行力そのものを増幅させる装置となっている。AIを使える層は、雑務を代行させることで思考に充てられる時間を数倍に増やし、時間の複利効果を享受している。この構造的優位の前では、たとえ個人の資質が極めて高くとも、AIを持たない者が活用層を追い抜くことは極めて困難である。