Wolontariusze Wikipedii spędzili lata na katalogowaniu informacji AI. Teraz dostępna jest wtyczka, która pozwala ich uniknąć.

Aby obejść te zasady, umiejętność Humanizator każe Claude’owi zastąpić nadęty język prostymi faktami i oferuje następującą przykładową transformację: Przed: „Instytut Statystyczny Katalonii został oficjalnie założony w 1989 r., co oznaczało kluczowy moment w ewolucji statystyki regionalnej w Hiszpanii”. Po: „Instytut Statystyczny Katalonii został założony w 1989 r. w celu gromadzenia i publikowania statystyk regionalnych.” Claude to przeczyta i jako maszyna dopasowująca wzorce dołoży wszelkich starań, aby stworzyć wynik pasujący do kontekstu rozmowy lub wykonywanego zadania. Przykład tego, dlaczego wykrywanie pisma przez sztuczną inteligencję zawodzi. Nawet przy tak pewnym zestawie reguł opracowanych przez redaktorów Wikipedii pisaliśmy już wcześniej o tym, dlaczego wykrywacze pisma AI nie działają niezawodnie: Nie ma nic z natury wyjątkowego w piśmie ludzkim, co niezawodnie odróżnia je od pisma LLM. Jednym z powodów jest to, że chociaż większość modeli językowych AI skłania się ku pewnym typom języka, można je również skłonić do ich unikania, jak w przypadku umiejętności Humanizator. (Chociaż czasami jest to bardzo trudne, jak OpenAI przekonało się w swojej wieloletniej walce z kreską.) Poza tym ludzie potrafią pisać w sposób podobny do chatbota. Na przykład ten artykuł prawdopodobnie zawiera pewne „cechy napisane przez sztuczną inteligencję”, które uruchamiają detektory sztucznej inteligencji, mimo że został napisany przez profesjonalnego pisarza – zwłaszcza jeśli użyjemy choćby jednego myślnika – ponieważ większość studentów LLM zaczerpnęła techniki pisania z przykładów profesjonalnego pisma zeskrobanych z Internetu. W związku z tym przewodnik Wikipedii zawiera zastrzeżenie, na które warto zwrócić uwagę: chociaż lista wskazuje pewne oczywiste informacje na temat, powiedzmy, niezmienionego użycia ChatGPT, nadal składa się z obserwacji, a nie żelaznych zasad. Z wstępnego wydruku z 2025 r. cytowanego na stronie wynika, że intensywnie korzystający z dużych modeli językowych prawidłowo dostrzegają artykuły wygenerowane przez sztuczną inteligencję w około 90 procentach przypadków. Brzmi świetnie, dopóki nie uświadomisz sobie, że 10 procent to wyniki fałszywie pozytywne, co wystarczy, aby potencjalnie wyrzucić jakiś wartościowy tekst w pogoni za wykryciem błędów w sztucznej inteligencji. Cofnięcie się o krok oznacza prawdopodobnie, że prace nad wykrywaniem sztucznej inteligencji będą musiały sięgnąć głębiej niż oznaczanie poszczególnych fraz i zagłębić się (widzisz, co tam zrobiłem?) bardziej w merytoryczną, faktyczną zawartość samego dzieła.
已Opublikowany: 2026-01-21 12:15:00
źródło: arstechnica.com








