Google Chrome が、ユーザーの明示的な許可なしに約 4GB のローカル AI モデルファイルをバックグラウンドでダウンロードしていると報じられ、プライバシー、ストレージ使用量、環境負荷をめぐる議論が起きています。
このファイル群は Gemini Nano に関連しており、主に Chrome のローカル AI 機能で使われます。論点は、ブラウザがローカル AI をサポートすること自体ではなく、ダウンロードの過程が十分に透明か、ユーザーが事前に知るべきか、そしてシステムリソースの使い方が妥当かどうかです。
何が起きたのか
問題になっているモデルファイルは weights.bin という名前で、Chrome の OptGuideOnDeviceModel ディレクトリにあります。Gemini Nano のローカル版とみられ、デバイス上で一部の AI 推論を行うために使われます。
Chrome はデバイスのハードウェア性能に応じて、バックグラウンドでダウンロードするかどうかを判断します。特に RAM や VRAM などの条件が参照されます。ユーザーが自分でダウンロードを開始する必要はなく、事前に明確な通知が表示されない場合もあります。
さらに厄介なのは、モデルファイルを手動で削除しても、完全には再ダウンロードを止められないことです。関連機能が有効なままだと、Chrome の再起動後や更新後に再びダウンロードされる可能性があります。
現在の議論で名前が挙がっている対象プラットフォームは、Windows 11、macOS、Ubuntu などのデスクトップ OS です。Chrome のデスクトップ版の利用規模を考えると、潜在的に影響を受けるデバイスは数億台に達する可能性があります。
Google の説明
Google は、これらのファイルは「Help me write」や詐欺検出などのローカル AI 機能を支えるためのものだと説明しています。モデルをローカルで実行することで、一部のデータ送信を減らし、プライバシー保護を改善できるという主張です。
また Google によると、デバイスの空き容量が不足した場合、Chrome は関連モデルを自動的に削除して容量を確保します。つまり、モデルが必ず永続的にディスクを占有するわけではありません。
同時に Google は、2024 年 2 月以降、ユーザーは Chrome の設定から関連機能を無効化できるとしています。無効化後は、モデルのダウンロードや更新は続かないとのことです。
確認と無効化の方法
Chrome に Gemini Nano モデルをローカルに保持してほしくない場合は、次の場所を確認できます。
まず Chrome の設定を開き、「オンデバイス AI」、ローカル AI、文章作成支援、最適化の提案に関連する項目を探し、不要な機能をオフにします。
次に、アドレスバーに次を入力します。
|
|
その後、次の項目を検索して無効化します。
|
|
最後に、Chrome のユーザーデータディレクトリで OptGuideOnDeviceModel フォルダを探し、その中のモデルファイルを削除します。ただし、ファイルを削除するだけでは通常不十分です。先に関連する flag や設定を無効化しておかないと、Chrome が後で再びダウンロードする可能性があります。
OS ごとの主な保存場所
OptGuideOnDeviceModel は通常、Chrome のユーザーデータディレクトリ配下にあります。OS やインストール方法によって異なりますが、まずは次の場所を確認するとよいでしょう。
- Windows:
%LOCALAPPDATA%\Google\Chrome\User Data\ - macOS:
~/Library/Application Support/Google/Chrome/ - Linux:
~/.config/google-chrome/ - Chromium:
~/.config/chromium/
該当するディレクトリに入ったら、OptGuideOnDeviceModel または weights.bin を検索します。Chrome Beta、Dev、Canary を使っている場合は、ディレクトリ名に対応するチャンネル名が含まれることがあります。
weights.bin がダウンロード済みか確認する方法
もっとも直接的な方法は、Chrome のユーザーデータディレクトリで次を検索することです。
|
|
ダウンロード済みであれば、通常は OptGuideOnDeviceModel の中にあり、ファイルサイズは数 GB 近くになる可能性があります。更新日時を見れば、Chrome が最近バックグラウンドで作成または更新したものかどうかも判断できます。
weights.bin が見つからない場合でも、そのデバイスが今後まったくダウンロードしないとは限りません。Chrome はハードウェア条件、地域、バージョン、機能フラグ、実験設定に基づいて、モデルを取得するかどうかを決める場合があります。
無効化すると影響を受ける可能性がある Chrome AI 機能
関連するローカル AI 機能や最適化機能を無効化すると、Gemini Nano に依存するオンデバイス機能に影響が出る可能性があります。たとえば「Help me write」、ローカルの詐欺検出、今後追加されるクラウドを経由しないブラウザ AI 機能などです。
これらの機能を使っていないユーザーであれば、日常的なブラウジングへの影響は通常大きくありません。一方で、Chrome 組み込みの文章作成支援、ページ理解、安全検出の実験機能をよく使うユーザーは、クラウド処理へ戻る、機能が使えなくなる、または別の代替方式が使われる可能性があります。
どこが争点なのか
この件の中心的な争点は、ブラウザがユーザーの明確な同意なしに、AI 機能のために数 GB のモデルファイルを事前にダウンロードしてよいのかという点です。
支持する側は、ローカル AI によってクラウド処理を減らし、プライバシー保護や応答速度の向上につながると考えます。反対する側は、特にファイルサイズが 4GB 近くあり、ストレージや通信量に影響し得る場合、少なくとも事前に明確な通知が必要だと主張します。
プライバシー専門家は、このような十分な告知を伴わないバックグラウンドダウンロードが、EU の ePrivacy 指令や GDPR 上の論点になり得るとも指摘しています。違反に当たるかどうかは、Google の告知方法、デフォルト設定、データ処理の経路、ユーザー制御の仕組みによって変わります。
まとめ
Chrome に Gemini Nano が入ることは、ブラウザがより多くの AI 機能をローカル実行へ移していることを示しています。一方で、ローカルモデルもディスク容量と帯域を消費し、ユーザーが自分のデバイスをどれだけ制御できているかという感覚に影響します。
一般ユーザーにとって最も直接的な対処は、Chrome のローカル AI と最適化機能の設定を確認することです。不要であれば関連オプションをオフにし、その後 OptGuideOnDeviceModel ディレクトリ内のモデルファイルを削除します。