Gdyński radny Jakub Ubych, zgodnie z wcześniejszymi zapowiedziami, kontynuuje temat związany ze sztuczną inteligencją. Dziś materiał o nadchodzącym Matrixie. I nie nie ma w tym nic z science fiction. Raczej przestroga przed zbytnim ufaniem AI.
Felieton Ubycha
Zanim wrócę do tematów #gdynia - dość intrygujące wiadomości ze świata AI. Mógłbym powiedzieć: Matrix nadchodzi.
W nocy znalazłem notkę na stronie TechCrunch, która zmobilizowała mnie, aby poszukać dalej...
Anthropic właśnie potwierdził istnienie modelu, który jest zbyt niebezpieczny, żeby go udostępnić publicznie. Nazywa się Claude Mythos Preview. To najnowszy i najpotężniejszy model sztucznej inteligencji stworzony przez Anthropic.
Mythos w testach wewnętrznych zidentyfikował dziesiątki tysięcy luk bezpieczeństwa typu zero-day w każdym głównym systemie operacyjnym i każdej głównej przeglądarce internetowej. Część z tych luk istniała od dłuższego czasu i nie została wykryta przez żaden dotychczasowy audyt bezpieczeństwa prowadzony przez ludzi.
Dla porównania: poprzedni model Anthropic, Claude Opus 4.6, znajdował około 500 takich luk. Mythos znajduje ich dziesiątki tysięcy i w odróżnieniu od wcześniejszych modeli potrafi nie tylko je wskazać, ale również napisać działający exploit.
Cyberbezpieczeństwo levelowania hard
Z jednej strony można powiedzieć, że trochę w tym marketingu, ale jednak Anthropic podjął bezprecedensową i odpowiedzialną decyzję: model nie zostanie udostępniony publicznie.
Zamiast tego firma uruchomiła inicjatywę Project Glasswing: zamknięty program, w którym 12 partnerów technologicznych, w tym Amazon, Apple, Microsoft, CrowdStrike, Cisco i Linux Foundation, wykorzystuje Mythosa wyłącznie do celów defensywnych: łatania luk, zabezpieczania infrastruktury krytycznej i budowania ochrony, zanim te same podatności zostaną wykorzystane przez kogoś innego.
Sam model trafił do opinii publicznej wcześniej niż planowano, ponieważ w marcu wyciekł opis jego możliwości z błędnie skonfigurowanego systemu zarządzania treścią Anthropic. Ironia: firma budująca najpotężniejsze narzędzie do znajdowania luk w zabezpieczeniach sama padła ofiarą ludzkiego błędu w konfiguracji
Co to oznacza w szerszym kontekście i dlaczego napisałem, że powoli Matrix nadchodzi?
Po pierwsze to osiągnęliśmy punkt, w którym model AI jest celowo wstrzymywany nie ze względu na niedoskonałość, lecz ze względu na skuteczność. To zmiana jakościowa w dyskusji o bezpieczeństwie AI. Do tej pory debata koncentrowała się na tym, czy modele są wystarczająco dobre. Teraz pytanie brzmi: co robimy, gdy są zbyt dobre?
Po drugie decyzja Anthropic wpisuje się w logikę AI Act i europejskiego podejścia opartego na ryzyku. Systemy o nieakceptowalnym poziomie ryzyka powinny podlegać ograniczeniom. Anthropic de facto zastosował tę zasadę wobec własnego produktu, zanim zmusiły go do tego regulacje.
Po trzecie jeśli ktokolwiek jeszcze traktuje cyberbezpieczeństwo i etykę AI jako "miękkie" tematy obok "prawdziwego" programowania, dziś jest dobry dzień, żeby zmienić zdanie. Świat, w którym model AI pisze exploity szybciej i skuteczniej niż zespoły pentesterów, wymaga ludzi, którzy rozumieją zarówno technologię, jak i jej konsekwencje.
Ciąg dalszy nastąpi...
Brak komentarza, Twój może być pierwszy.
Dodaj komentarz
Użytkowniku, pamiętaj, że w Internecie nie jesteś anonimowy. Ponosisz odpowiedzialność za treści zamieszczane na portalu dziendobrypomorze.pl. Dodanie opinii jest równoznaczne z akceptacją Regulaminu portalu. Jeśli zauważyłeś, że któraś opinia łamie prawo lub dobry obyczaj - powiadom nas [email protected] lub użyj przycisku Zgłoś komentarz