2025年9月13日土曜日

ITサービスのマネタイズは難しい

arcブラウザに広告が入るようになった。デザインがよく広告が入らないので、メインブラウザにするつもりだったが当てが外れた。事業を継続するためには広告遮断をやめねばならなかったのか。ベースのchromiumの仕様が変わったのか。

広告を入れているのはブラウザではなく表示しているサイトの広告主なのだが、それでも広告を遮断するとブラウザ提供企業の収益にはネガティブなのだろう。

検索エンジンのgoogleは最初は広告がなく、検索性能がよいだけでなく広告を入れない姿勢にも感心してメインの検索エンジンにした。当時は金儲け主義のmicrosoftを批判していたように思う。そのgoogleもいつのまにか収益の6割が広告由来になってしまった。そうしなければビジネスを継続できない。

2025年9月9日火曜日

基隆と石垣島で楽天モバイルとahamoを比較する

携帯電話の電波の入り具合はもちろん場所次第だ。その地域にアンテナが少ないキャリアでも、たまたまアンテナのそばなら電波は強いし、その逆もある。

基隆では楽天モバイルは中華電信の電波を使い、ahamoは台湾大哥大の電波を使う。どちらも圏外はないが、アンテナピクトはahamoの台湾大哥大の方が強くて、通信スループットもahamoの方が優秀だった。

石垣島南西端の竹富島よりの地域では楽天モバイルの方がahamoよりアンテナピクトが強くて、通信スループットも楽天モバイルの方が優秀だった。石垣島は国内なので海外ローミングの契約をしていないワイモバイルとpovoも復活して、こちらのアンテナピクトはahamoと同じ強さだった。ドコモ、au、ソフトバンクの3社よりも楽天モバイルの方が電波が強いというのが意外だったが、たまたまそういうアンテナ配置になっているのだろう。

いちばん電波が強いキャリアを使う方が快適なので、基隆ではahamoをメインに使い、石垣島では楽天モバイルをメインに使った。

2025年9月2日火曜日

Google WorkspaceのBusiness Starterエディションだと入力したプロンプトが学習に用いられない

研究や仕事でローカルPCでのLLMを利用する理由は、入力したプロンプトを外部に漏らしたくないからだ。未発表の論文ネタや未申請の特許ネタが含まれている可能性が高いからだ。しかしローカルのLLMはどんなに高性能なGPUをたくさん使っていても、Deep Research機能において、GeminiやChatGPTやClaudeに劣る。しかしそういうサービスを使うと秘密が外部に漏れる心配があるので使えない。多くの企業で無料のAIサービスが使用禁止となっているのはそういう理由だ。

googleの公式サイトには無料のGeminiサービスでは「Gemini アプリでのチャットの内容は、人間のレビュアーによってレビューされ、Google のプロダクト、サービス、機械学習技術の改良のために使用される場合がある。」と記載されている。これでは使えない。有料のサービスでは「Gemini アプリでのチャットの内容やアップロード済みのファイルが、人間のレビュアーによってレビューされたり、生成 AI モデルの改良のために使用されたりすることはない。」と記載されており、これならgoogleを信じる限りは研究や仕事に使える。

有料サービスなら良いことはわかったが、あまり費用がかかるのは避けたい。そこで、今使っているGoogle WorkspaceのBusiness StarterエディションのGeminiサービスはどうなのかを調べたら有料版Gemini相当だとわかった。これは助かる。追加の費用を支出することなくGeminiの機能を使用できる。

2025年9月1日月曜日

ローカルLLMでDeep Researchを行うのが難しい理由

オープンモデルのLLMエンジンをローカルPCで動かすと、自分が入力したプロンプトやデータを外部に知られることがない。この性質は研究や仕事には都合がよい。ローカルPCで動かしているLLMエンジンは過去に学習したもののため、学習時以降に発生したデータを扱うのは苦手だ。そこで、入力データとして新しい文書や画像を与えてこの苦手な部分を補完する。

googleのGeminiではDeep Research機能が実装されていて、リアルタイムに外部のwebサイトにアクセスして、上記の苦手な部分を補完できる。Deep Researchが秀逸な点は、どのwebサイトをアクセスするかを自ら考えてくれることだ。ユーザーがどこどこのサイトをアクセスしろと指定する必要がない。もちろんサイトを陽に指定することもできる。

ローカルPCで動かしているLLMエンジンが外部のwebサイトをアクセスするようにすることは一応できる。pythonなりでプログラムを書いて、ユーザーが与えたプロンプトから文字列を切り出し、その文字列を使って検索エンジンでweb検索を行い、ヒットしたwebサイトをプロンプトとして入力することはできる。しかし、これだけではGeminiのDeep Researchより劣化した結果しか得ることはできない。どこがGeminiに劣るかと言うと、web検索のSEOの部分だ。GeminiではLLM SEOと呼んでいる。web検索をしてヒットしたwebサイト群のどれが入力として採用する価値があるかの判断がGeminiのDeep Researchでは優れているのだ。個人のブログよりネットで公開されている論文誌の方が情報の信頼性が高いので、論文誌の方を採用するというような判断がSEOであり、LLM SEOだ。この分野はgoogleの本業であり、googleが最も得意とするところだ。個人がちょちょいと書いたpythonプログラムで真似できるものではない。そのためにローカルPCで動かすLLMエンジンでのDeep Reseachでは、なかなか満足のゆく結果が得られない。

2025年8月21日木曜日

LLMは古いデータと英語圏以外のデータが苦手

NECのPC-9801m2の定価が知りたくてgpt-ossに聞いたら39800円とのこと。あきらかに桁が違うので、別途ネットで調べて415000円では?と修正を促したがガンとして聞き入れない。学習したデータが間違っていたようだ。

gpt-ossではなく、gemma-3-27bだったらどうなるかと聞いてみたら今度は168000円とのこと。これも415000円ではと聞いたら、それはメモリを増設した上位機種だと諭された。そんなものはないのだが。

スバル360の乾燥重量を聞いたら本当は385kgなのに500kgだそうだ。零戦21型のエンジン出力を聞いたら1900馬力だそうだ。そんなにパワーがあったらグラマンF6Fに負けてないよ。陸軍の鍾馗のエンジン出力を聞いたら1800馬力だって。そんなにあったらB-29を落としてたよ。

米軍機のF4FワイルドキャットとF4Uコルセアのエンジン出力は正しく答えていた。

英語圏以外の情報と、古い情報はネット上にあまりないので、間違い情報が混じっているとそれに影響されて学習してしまうようだ。

ちなみにモビルスーツのことを聞くと、とんでもない型番や名前の迷機をたくさん捏造してくれるので、これはこれで面白かった。彼らの世界ではMSN-18とかMS-35とかがあるのだって。MSN-18はMS-18ケンプファーをニュータイプ専用機に改造したものではなく、通常のモビルスーツより装甲が薄くてサイズが小さいものなんだって。いろいろ聞いてみるとめちゃくちゃ面白かった。

2025年8月17日日曜日

機械の仕組みがわかってないのに使うのが上手な人は本当に存在するか

最近ではLLMのユーザーが顕著だが、中身がわかってなくて使い方だけを知っている。たまに私よりうまく使えていて感心することもある。しかし中身がわかってないために肝心なところでは失敗する。中身がわかってない人は動作結果に文句を言うことがよくあるのだが、そう動くように作られているのだから文句を言うのは無意味であることがわかっていない。

1980年までは車を速く走らせる人はもれなく車のことを深く理解していた。車のメカニズムの理解はレーシングドライバーで成功するための必須条件だった。

F1の世界チャンピオンになったアイルトンセナは車のメカニズムにあまり興味がない人とされているが、彼は幼少のころからカートをドライブしていたのでメカニズムの知識は当然あった。何もわかってなくてF1をドライブしていたのではない。

頭文字Dの藤原拓海君は車のメカニズムを何もわかってなくて速いドライバーの代表なのだが、フィクションなので現実味はない。物語の後半では彼もメカの勉強に頑張っていたので、最後までメカがわからなくて速いドライバーではなかった。

話をLLMに戻すと、中身がわかってないとうまく使えないのは当たり前だ。LLMとそのエンジンであるDLはヒントン氏の2012年(元祖は2006年の論文だが)の成果から順に追跡している人は中身を無理なく理解できているが、そうでない人はブラックボックスとして扱っている。LLMに関してはわずか13年分なのだから基本から勉強すればよいのにと思うが、それをする人は少数派だ。

コンピューターも同じだ。ソフトは、プロセッサの内部構造、プロセッサのマイクロコード、プロセッサのインストラクションセット、プログラミング言語の構造、コンパイラの動作、OSの中身、通信プロトコルを知らないとうまく使いこなせない。ハードであればプロセッサの内部構造、メモリの内部構造、全体回路、周辺回路、通信回路を理解していないとうまく使いこなせない。これらは1970年代から技術が発明された順にリアルタイムに触れてきた世代は学ぶ時間が十分あったので無理なく理解できている。しかし2000年以降に生まれた若者がコンピューターの中身を理解するのは大変なのではないかと思う。それゆえに中身を理解せずに使ってしまい、年齢が70代のウイザードほどには使いこなせない人が多いのだろう。

2025年8月16日土曜日

LLMが鉄道網を理解できないのはなぜか

東急の株主優待乗車証を使う時にいちばんお得な区間をOpenAIのgpt-ossに聞いてみた。新線ができて割高区間である新横浜までと返ってくると思っていたが、渋谷ー成田空港間という答が返ってきた。

びっくりして、今度は近鉄で同じことを聞いてみたら京都と奈良間という大嘘が返ってきた。切符の値段もでたらめだった。いったいこれはどういうことだろうか?

原因を調べたら、学習時のテキストに鉄道各社の路線データがないことが理由とわかった。路線データがテキスト形式でインターネットにアップされていることはほとんどない。そしてたとえアップされていたとしても、文章の次の単語を当てる形式の学習では、ある路線がどの鉄道会社に属しているか、ある駅がどの路線に属しているかを学習することはできない。LLMはwikipediaやニュースやブログなどのテキストからしか学べない。たとえばブログで渋谷駅から成田空港へ行ったという記事が多くあったとする。そして別のブログやニュースで「東急線渋谷駅」といった単語が多く出てきたとする。これらを使って確率的に次の単語を学習したLLMは汎化性能を発揮して、東急線で渋谷駅から成田空港駅まで行くことができると判断するのだ。連中にしてみればベストを尽くしている。この動作に文句を言う方が無粋というものだ。

将来のLLMは乗り換え案内サービスを利用することを覚えるだろう。これで切符の値段を間違うことはなくなる。しかし鉄道会社ごとの路線という概念を覚えるのはかなり先だと思うし、鉄道会社間で相互乗り入れしている路線においてどの路線がどの鉄道会社に属しているかわかるのはもっと先だろう。目黒と白金高輪の間はどの路線かなんて人間でも正しく答えられる人はあまりいないし。答は東京メトロ南北線と都営三田線が線路もプラットホームも構内も共用していて、同時にふたつの路線であり区別できないだ。シュレディンガーの猫みたいだ。