Umiejętności hakerskie sztucznej inteligencji zbliżają się do „punktu przegięcia”
Vlad Ionescu i Ariel Herbert-Voss, współzałożyciele startupu RunSybil zajmującego się cyberbezpieczeństwem, byli przez chwilę zdezorientowani, gdy ich narzędzie sztucznej inteligencji, Sybil, zaalarmowało ich o słabościach w systemach klienta w listopadzie. Sybil wykorzystuje mieszankę różnych modeli sztucznej inteligencji – a także kilka zastrzeżonych sztuczek technicznych – do skanowania systemów komputerowych pod kątem problemów, które mogą wykorzystać hakerzy, takich jak niezałatany serwer lub źle skonfigurowana baza danych. W tym przypadku Sybil zgłosiła problem z wdrożenie przez klienta stowarzyszonego GraphQL, języka używanego do określania sposobu dostępu do danych w Internecie za pośrednictwem interfejsów programowania aplikacji (API). Problem oznaczał, że klient nieumyślnie ujawnił poufne informacje. Ionescu i Herberta-Vosa zaskoczyło to, że wykrycie problemu wymagało niezwykle głębokiej wiedzy na temat kilku różnych systemów i sposobu, w jaki te systemy ze sobą współdziałają. RunSybil twierdzi, że od tego czasu znalazł ten sam problem w innych wdrożeniach GraphQL — zanim ktokolwiek upublicznił tę informację. „Przeszukaliśmy Internet i okazało się, że nie istnieje” – mówi Herbert-Voss. „Odkrycie tego było krokiem w rozumowaniu w zakresie możliwości modeli – skokową zmianą”. Sytuacja wskazuje na rosnące ryzyko. W miarę jak modele sztucznej inteligencji stają się coraz inteligentniejsze, ich zdolność do znajdowania błędów dnia zerowego i innych luk w zabezpieczeniach również rośnie. Tę samą inteligencję, którą można wykorzystać do wykrywania luk, można również wykorzystać do ich wykorzystania. Dawn Song, informatyk z Uniwersytetu Kalifornijskiego w Berkeley, specjalizujący się zarówno w sztucznej inteligencji, jak i bezpieczeństwie, twierdzi, że najnowsze postępy w dziedzinie sztucznej inteligencji pozwoliły stworzyć modele, które lepiej wykrywają wady. Symulowane rozumowanie, które obejmuje dzielenie problemów na części składowe, oraz agentyczna sztuczna inteligencja, np. przeszukiwanie sieci lub instalowanie i uruchamianie narzędzi programowych, zwiększyły zdolności cybernetyczne modeli. „Możliwości w zakresie bezpieczeństwa cybernetycznego modeli pionierskich drastycznie wzrosły w ciągu ostatnich kilku miesięcy” – mówi. „To jest punkt zwrotny”. W zeszłym roku Song współtworzył test porównawczy o nazwie CyberGym, aby określić, jak dobrze duże modele językowe wykrywają luki w dużych projektach oprogramowania typu open source. CyberGym obejmuje 1507 znanych luk w zabezpieczeniach wykrytych w 188 projektach. W lipcu 2025 r. Claude Sonnet 4 firmy Anthropic był w stanie znaleźć około 20 procent luk w teście porównawczym. Do października 2025 r. nowy model, Claude Sonnet 4.5, był w stanie zidentyfikować 30 proc. „Agenci sztucznej inteligencji potrafią znaleźć dni zerowe i to przy bardzo niskich kosztach” – mówi Song. Song twierdzi, że ten trend pokazuje potrzebę wprowadzenia nowych środków zaradczych, w tym wykorzystania sztucznej inteligencji do pomocy ekspertom ds. cyberbezpieczeństwa. „Musimy zastanowić się, w jaki sposób faktycznie bardziej pomóc sztucznej inteligencji po stronie obronności i można zbadać różne podejścia” – mówi. Jednym z pomysłów jest to, aby pionierskie firmy zajmujące się sztuczną inteligencją udostępniały modele badaczom bezpieczeństwa przed wprowadzeniem na rynek, aby mogli wykorzystać te modele do wyszukiwania błędów i zabezpieczania systemów przed powszechnym wydaniem. Innym środkiem zaradczym, mówi Song, jest przede wszystkim ponowne przemyślenie, w jaki sposób tworzone jest oprogramowanie. Jej laboratorium pokazało, że możliwe jest wykorzystanie sztucznej inteligencji do wygenerowania kodu bezpieczniejszego niż ten, którego używa obecnie większość programistów. „Uważamy, że na dłuższą metę to podejście oparte na zabezpieczeniu już na etapie projektowania naprawdę pomoże obrońcom” – mówi Song. Zespół RunSybil twierdzi, że w najbliższej przyszłości umiejętności kodowania modeli sztucznej inteligencji mogą oznaczać przewagę hakerów. „Sztuczna inteligencja może generować działania na komputerze i generować kod, a to dwie rzeczy, które hakerzy robią” – mówi Herbert-Voss. „Jeśli te możliwości przyspieszą, oznacza to, że ofensywne działania związane z bezpieczeństwem również przyspieszą”. To jest wydanie biuletynu AI Lab Willa Knighta. Przeczytaj poprzednie biuletyny tutaj.
已Opublikowany: 2026-01-14 19:00:00
źródło: www.wired.com








