gik|iewicz

szukaj
Google Chrome cicho usuwa gwarancję prywatności lokalnego AI

Google Chrome cicho usuwa gwarancję prywatności lokalnego AI

Google Chrome pobiera na dyski użytkowników model AI o rozmiarze około 4 GB bez ich wyraźnej zgody. Badacz bezpieczeństwa Alexander Hanff twierdzi, że praktyka ta może naruszać unijne przepisy o ochronie prywatności. Co więcej, po usunięciu pliku przeglądarka pobiera go ponownie.

TL;DR: Chrome instaluje model Gemini Nano ważący blisko 4 GB bez pytania użytkownika o zgodę. Usunięcie pliku nie pomaga, ponieważ przeglądarka pobiera go ponownie. Badacz Alexander Hanff wskazuje, że to może naruszać prawo unijne oraz generować niepotrzebny pobór energii.

Dlaczego Chrome pobiera model AI bez zgody użytkownika?

Google Chrome od kilku miesięcy integruje funkcje sztucznej inteligencji oparte na modelu Gemini Nano. Przeglądarka pobiera ten model na dysk lokalny użytkownika w tle, bez wyświetlania jakiegokolwiek powiadomienia. Zgodnie z informacjami z portali takich jak Tom’s Hardware czy Komputer Świat, plik waży blisko 4 GB i jest instalowany automatycznie na urządzeniach z włączoną odpowiednią flagą.

W praktyce wygląda to inaczej.

Zatem użytkownik dowiaduje się o obecności modelu dopiero po ręcznym sprawdzeniu folderu systemowego. Przeglądarka nie informuje o pobieraniu w trakcie aktualizacji ani po jej zakończeniu. Ponadto, próba usunięcia pliku kończy się tym, że Chrome pobiera go ponownie przy najbliższym uruchomieniu.

Alexander Hanff, badacz bezpieczeństwa i prawnik, zwrócił na to uwagę w swojej analizie. Według niego takie zachowanie może naruszać przepisy RODO, ponieważ dane użytkownika są przetwarzane bez odpowiedniej podstawy prawnej. Hanff podkreśla również, że Google nie udziela jasnej informacji o tym, co dokładnie robi ten model na komputerze użytkownika.

W rezultacie sprawa trafiła do europejskich organów ochrony danych. Hanff złożył oficjalne skargi do irlandzkiego komisarza ds. ochrony danych, który nadzoruje zgodność Google z unijnymi przepisami.

Czym dokładnie jest pobierany plik i ile zajmuje?

Plik pobierany przez Chrome to model językowy Gemini Nano, przeznaczony do uruchamiania lokalnie na urządzeniu użytkownika. Zgodnie z raportami, jego rozmiar wynosi blisko 4 GB. Model ten ma obsługiwać funkcje takie jak lokalne podsumowania tekstu, generowanie odpowiedzi czy asystent pisania bez konieczności wysyłania danych do serwerów Google.

Otóż teoretycznie lokalne AI miało chronić prywatność.

Jednakże w rzeczywistości użytkownik nie ma kontroli nad tym, co model robi z wprowadzanymi danymi. Google twierdzi, że przetwarzanie odbywa się na urządzeniu, ale brak transparentności budzi pytania. Na przykład, czy model wysyła metadane lub logi usage do serwerów Google? Hanff wskazuje, że odpowiedź nie jest jednoznaczna.

Plik jest przechowywany w folderze profilu Chrome i można go znaleźć, sprawdzając ukryte pliki systemowe. Oto gdzie go zlokalizować w zależności od systemu operacyjnego:

  • Windows: %LocalAppData%\Google\Chrome\User Data\Default\optimization_guide_model_store
  • macOS: ~/Library/Application Support/Google/Chrome/Default/optimization_guide_model_store
  • Linux: ~/.config/google-chrome/Default/optimization_guide_model_store

Warto dodać, że plik pojawia się również na komputerach, na których użytkownik nigdy nie używał żadnej funkcji AI w Chrome.

Jak Google wcześniej zapewniało o prywatności lokalnego AI?

Google przez miesiące aktywnie promowało lokalne modele AI jako sposób na ochronę prywatności użytkowników. Firma podkreślała, że dane przetwarzane przez Gemini Nano nie opuszczają urządzenia. W dokumentacji dla deweloperów znajdowało się wyraźne zapewnienie, że lokalne AI chroni prywatność, ponieważ nie wymaga wysyłania danych do chmury.

To było kluczowe dla budowania zaufania.

Mimo to, niedawno Google usunęło te zapewnienia ze swojej dokumentacji. Jak zauważyli obserwatorzy, fragmenty gwarantujące, że dane nie są wysyłane do serwerów Google, zniknęły bez formalnego ogłoszenia. Zmiana ta została wychwycona przez społeczność i opisana m.in. na portalu Antyweb.

Dlatego pojawia się pytanie: czy Google planuje zmienić sposób działania lokalnego AI? Usunięcie gwarancji prywatności sugeruje, że firma może chcieć w przyszłości wysyłać część danych do chmury. Choć na razie model działa lokalnie, brak pisemnego zobowiązania daje Google swobodę w zmianie tej polityki.

Przypomina to sytuację z Google Chrome po cichu instaluje na Twoim urządzeniu model AI o rozmiarze 4 GB bez Twojej zgody, gdzie już wcześniej zwracaliśmy uwagę na brak transparentności w działaniach Google.

Jakie są konsekwencje energetyczne cichego pobierania?

Hanff w swojej analizie zwraca uwagę na aspekt środowiskowy cichego pobierania modelu AI. Model o rozmiarze 4 GB pobierany na miliony urządzeń generuje znaczny pobór energii. Hanff szacuje, że jeśli Chrome ma miliardy aktywnych użytkowników, a nawet ułamek z nich otrzyma ten plik, mówimy o tysiącach megawatogodzin zużytych na przesyłanie danych.

To ogromne obciążenie dla infrastruktury.

Co więcej, plik jest pobierany ponownie po usunięciu, co oznacza podwójne lub potrójne zużycie przepustowości. W rezultacie użytkownicy o niższych limitach danych mogą zauważyć wzrost zużycia transferu. Na przykład, użytkownik z limitem 50 GB miesięcznie może stracić 8-12% puli na sam model AI.

AspektWpływ na użytkownika
Rozmiar pliku~4 GB na dysku
Transfer danych4 GB za każdym pobraniem
Ponowne pobieranieTak, po usunięciu pliku
PowiadomienieBrak
Możliwość rezygnacjiTylko przez flags

Tabela powyżej pokazuje, że użytkownik ponosi koszty bez wyraźnej zgody. Zatem pojawia się pytanie o odpowiedzialność Google za koszty poniesione przez użytkowników.

Jak usunąć model AI z Chrome?

Aby usunąć model Gemini Nano z dysku, trzeba wyłączyć odpowiednie flagi w Chrome. Należy wpisać chrome://flags w pasek adresu i wyszukać flagi związane z AI. Po wyłączeniu ich i zrestartowaniu przeglądarki, plik modelu nie będzie pobierany ponownie.

Proces wymaga kilku kroków.

Oto instrukcja krok po kroku:

  • Otwórz Chrome i wpisz chrome://flags w pasek adresu
  • Wyszukaj optimization_guide i ustaw na Disabled
  • Wyszukaj enable_gen_ai i ustaw wszystkie pozycje na Disabled
  • Zrestartuj przeglądarkę
  • Usuń folder optimization_guide_model_store z lokalizacji profilu
  • Opróżnij kosz i zrestartuj komputer

Należy pamiętać, że wyłączenie tych flag może ograniczyć niektóre funkcje przeglądarki, takie jak podsumowania tekstu czy asystent pisania. Jednakże dla użytkowników, którzy nie korzystają z tych funkcji, wyłączenie flag jest jedynym sposobem na zatrzymanie cichego pobierania.

Jakie dane mogą trafiać do Google mimo zapewnienia o lokalnym przetwarzaniu?

Google usunęło ze swojej dokumentacji kluczowe gwarancje dotyczące tego, że lokalne AI nie wysyła danych do serwerów firmy. Zmiana ta została zauważona przez społeczność w maju 2026 roku. Brak tych zapewnień oznacza, że model Gemini Nano może w przyszłości transmitować wybrane informacje poza urządzenie użytkownika bez dodatkowego powiadomienia. To rodzi poważne pytania.

Zatem dokumentacja deweloperska przestała gwarantować pełną prywatność. Wcześniej Google wyraźnie podkreślało, że dane przetwarzane przez asystenta nie opuszczają komputera. Obecnie te fragmenty zniknęły, co sugeruje przygotowanie do zmiany polityki transferu informacji. Hanff wskazuje, że brak pisemnego zobowiązania daje firmie swobodę w wysyłaniu logów użycia do chmury.

Co więcej, użytkownicy nie mają narzędzi do weryfikacji ruchu sieciowego generowanego przez model. Przeglądarka może wysyłać metadane, statystyki użycia lub nawet fragmenty wprowadzanego tekstu pod przykrywką telemetrii. Na przykład flagi odpowiedzialne za optymalizację mogą zbierać dane o wydajności modelu i przesyłać je na serwery.

Jak organy ochrony danych reagują na zmiany w polityce Google?

Badacz bezpieczeństwa Alexander Hanff złożył oficjalną skargę do irlandzkiego komisarza ds. ochrony danych w związku z cichym pobieraniem modelu Gemini Nano. Według raportów, skarga dotyczy naruszenia przepisów RODO poprzez przetwarzanie danych bez wyraźnej zgody. Komisarz nadzoruje zgodność Google z unijnymi przepisami jako główny organ dla tej korporacji w Europie.

Wobec tego sprawa zyskała oficjalny status.

Ponadto Hanff podkreśla, że usunięcie gwarancji prywatności z dokumentacji potęguje problem. Organ ochrony danych musi teraz zbadać, czy Google planuje zmianę sposobu działania lokalnego AI. Zmiana ta wpłynie na ocenę zgodności z prawem unijnym.

Choć organy jeszcze nie wydały decyzji, sam fakt skargi zmusza Google do odpowiedzi. Sprawa przypomina kontrowersje opisane w artykule Sprzeciw Mozilli wobec API Prompt w Chrome, gdzie Mozilla również kwestionowała podejście Google do prywatności użytkowników.

Czym różni się podejście Google od konkurencji w kwestii lokalnego AI?

Inni dostawcy przeglądarek podchodzą do integracji lokalnych modeli AI z większą transparentnością. Na przykład Mozilla otwarcie krytykuje praktyki Google dotyczące prywatności, co opisano w Sprzeciw Mozilli wobec API Prompt w Chrome. Apple, wprowadzając swoje modele na urządzenia, wymaga jawnej zgody użytkownika na pobranie dodatkowych komponentów.

Różnica w podejściu jest wyraźna.

Dlatego Google wyróżnia się na tle konkurencji brakiem powiadomień. Chrome pobiera model w tle, podczas gdy inni dostawcy proszą o zgodę. Co więcej, usunięcie gwarancji prywatności pogłębia tę różnicę, ponieważ konkurenci utrzymują przejrzyste zasady przetwarzania danych.

Z kolei Microsoft integruje modele AI w Edge, ale z zachowaniem kontroli użytkownika nad pobieraniem. Użytkownik może zrezygnować z funkcji AI przed pobraniem jakichkolwiek plików. Tego typu rozwiązania stawiają użytkownika w centrum podejmowania decyzji.

Jakie kroki podjąć, aby chronić swoją prywatność w Chrome?

Aby chronić prywatność, użytkownicy muszą ręcznie wyłączyć funkcje AI i usunąć pobrany model z dysku. Zgodnie z instrukcjami opisanymi w części pierwszej, należy wpisać chrome://flags w pasek adresu i dezaktywować wszystkie flagi związane z sztuczną inteligencją.

Oto kluczowe działania:

  • Wyłącz flagę optimization_guide w chrome://flags
  • Dezaktywuj wszystkie pozycje zawierające enable_gen_ai
  • Usuń folder optimization_guide_model_store z profilu Chrome
  • Zablokuj Chrome dostęp do internetu w zaporze sieciowej po usunięciu plików
  • Monitoruj folder profilu pod kątem ponownego pojawienia się modelu
  • Rozważ migrację na przeglądarkę z większą transparentnością
  • Regularnie sprawdzaj ustawienia prywatności po aktualizacjach
  • Przeczytaj artykuł Google Chrome po cichu instaluje na Twoim urządzeniu model AI o rozmiarze 4 GB bez Twojej zgody, aby zrozumieć pełen kontekst

Dlatego regularne monitorowanie ustawień jest koniecznością. Google może włączać nowe flagi w kolejnych aktualizacjach, co spowoduje ponowne pobranie modelu.

Co więcej, warto rozważyć alternatywne przeglądarki, które oferują większą kontrolę nad prywatnością. Na przykład Firefox nie pobiera modeli AI bez zgody użytkownika, co czyni go bezpieczniejszym wyborem dla osób dbających o ochronę danych.

Jak usunięcie gwarancji wpływa na zaufanie do Google?

Usunięcie gwarancji prywatności z dokumentacji osłabia zaufanie użytkowników do Google. Firma przez miesiące budowała wizerunek obrońcy prywatności, promując lokalne AI jako rozwiązanie bezpieczne. Nagła zmiana narracji bez formalnego ogłoszenia sprawia, że użytkownicy kwestionują intencje korporacji.

To sygnał ostrzegawczy dla całej branży.

Zatem badacze tacy jak Hanff wykorzystują ten fakt jako dowód na brak transparentności. W skardze do irlandzkiego komisarza ds. ochrony danych podkreśla się, że Google celowo ukrywa informacje o przetwarzaniu danych. Tego typu działania mogą skutkować nałożeniem kar finansowych zgodnie z przepisami RODO.

Choć Google twierdzi, że model nadal działa lokalnie, brak pisemnego zobowiązania budzi obawy. Użytkownicy nie mają gwarancji, że przyszłe aktualizacje nie zmienią tego zachowania. Sprawa ta wpisuje się w szerszy trend opisany w Atlassian włącza domyślne zbieranie danych do trenowania AI, gdzie firmy zmieniają politykę prywatności po cichu.

Jakie są perspektywy rozwoju lokalnego AI w przeglądarkach?

Lokalne modele AI będą odgrywać coraz większą rolę w przeglądarkach internetowych, ale ich wdrażanie wymaga lepszej transparentności. Zgodnie z trendami opisanymi na portalach takich jak Tom’s Hardware czy Engadget, integracja AI w przeglądarkach to kierunek, w którym zmierza cała branża. Jednakże metody stosowane przez Google budzą kontrowersje.

Przyszłość zależy od reakcji regulatorów.

Dlatego decyzja irlandzkiego komisarza ds. ochrony danych może nadać ton dla przyszłych wdrożeń. Jeśli organ uzna praktyki Google za niezgodne z prawem, inni dostawcy będą musieli dostosować swoje podejście. W rezultacie użytkownicy zyskają większą kontrolę nad instalacją modeli AI.

Ponadto konkurencja może wymusić na Google zmianę polityki. Jeśli przeglądarki takie jak Firefox czy Safari zaoferują lepszą ochronę prywatności, użytkownicy mogą zmienić swoje preferencje. Na przykład otwarte modele opisane w Google udostępnia modele otwarte Gemma 4 pokazują, że transparentne podejście jest możliwe.

Często zadawane pytania

Czy Chrome informuje o pobieraniu modelu AI?

Nie, Chrome nie wyświetla żadnego powiadomienia o pobieraniu modelu Gemini Nano. Zgodnie z raportami Tom’s Hardware i Engadget, plik o rozmiarze blisko 4 GB jest pobierany w tle bez wiedzy użytkownika.

Czy usunięcie pliku modelu rozwiązuje problem?

Nie, usunięcie pliku nie rozwiązuje problemu, ponieważ Chrome pobiera go ponownie przy najbliższym uruchomieniu. Aby trwale zatrzymać pobieranie, należy wyłączyć odpowiednie flagi w chrome://flags.

Czy lokalne AI w Chrome wysyła dane do Google?

Google wcześniej zapewniało, że dane nie opuszczają urządzenia, ale firma usunęła te gwarancje ze swojej dokumentacji. Obecnie nie ma pewności, czy model nie wysyła żadnych metadanych do serwerów Google.

Czy ciche pobieranie modelu AI jest legalne w UE?

Badacz Alexander Hanff twierdzi, że praktyka ta może naruszać przepisy RODO, ponieważ użytkownik nie wyraził zgody na instalację i przetwarzanie danych. Hanff złożył skargę do irlandzkiego komisarza ds. ochrony danych.

Podsumowanie

  1. Chrome pobiera model Gemini Nano (~4 GB) bez zgody użytkownika i bez powiadomienia
  2. Usunięcie pliku nie pomaga – przeglądarka pobiera go ponownie
  3. Google usunęło gwarancje prywatności ze swojej dokumentacji, co budzi obawy
  4. Badacz Alexander Hanff twierdzi, że to może naruszać prawo unijne (RODO)
  5. Jedynym sposobem na zatrzymanie pobierania jest wyłączenie flag w chrome://flags

Jeśli chcesz wiedzieć więcej o tym, jak giganci technologiczni radzą sobie z prywatnością, przeczytaj Sprzeciw Mozilli wobec API Prompt w Chrome oraz Atlassian włącza domyślne zbieranie danych do trenowania AI.