Strona główna Zdrowie „Brak regulacji”: uruchomienie ChatGPT Health w Australii budzi niepokój ekspertów | przegladursynowski.pl

„Brak regulacji”: uruchomienie ChatGPT Health w Australii budzi niepokój ekspertów | przegladursynowski.pl

5
0
„Brak regulacji”: uruchomienie ChatGPT Health w Australii budzi niepokój ekspertów
| przegladursynowski.pl
Medical experts say ChatGPT Health could be useful but worry users will take advice at face value. Photograph: Dado Ruvić/Reuters

„Brak regulacji”: uruchomienie ChatGPT Health w Australii budzi niepokój ekspertów

60-letni mężczyzna bez historii chorób psychicznych zgłosił się na szpitalny oddział ratunkowy, twierdząc, że sąsiad go otruł. W ciągu następnych 24 godzin miał nasilające się halucynacje i próbował uciec ze szpitala. Lekarze w końcu odkryli, że mężczyzna stosował codzienną dietę składającą się z bromku sodu, nieorganicznej soli używanej głównie do celów przemysłowych i laboratoryjnych, w tym do czyszczenia i uzdatniania wody. Kupił ją przez Internet po tym, jak ChatGPT powiedział mu, że może jej używać zamiast soli kuchennej, ponieważ obawiał się wpływu soli na zdrowie. Bromek sodu może gromadzić się w organizmie, powodując stan zwany bromizmem, którego objawy obejmują halucynacje, osłupienie i zaburzenia koordynacji. W takich przypadkach Alex Ruani, doktorant w dziedzinie dezinformacji zdrowotnej w University College w Londynie, wyraził zaniepokojenie uruchomieniem ChatGPT Health w Australii. Ograniczona liczba australijskich użytkowników może już uzyskać dostęp do platformy sztucznej inteligencji, która umożliwia im „bezpieczne łączenie dokumentacji medycznej i aplikacji wellness” w celu generowania odpowiedzi „bardziej odpowiednich i przydatnych dla Ciebie”. Użytkownicy ChatGPT w Australii mogą zapisać się na listę oczekujących na dostęp. „ChatGPT Health jest przedstawiany jako interfejs, który może pomóc ludziom zrozumieć informacje zdrowotne i wyniki badań lub otrzymać porady dietetyczne, nie zastępując jednocześnie lekarza” – powiedział Ruani. „Wyzwanie polega na tym, że dla wielu użytkowników nie jest oczywiste, gdzie kończą się ogólne informacje, a zaczyna porada lekarska, zwłaszcza gdy odpowiedzi brzmią pewnie i spersonalizowanie, nawet jeśli wprowadzają w błąd”. Ruani powiedział, że było zbyt wiele „przerażających” przykładów „opuszczenia ChatGPT” kluczowe szczegóły dotyczące bezpieczeństwa, takie jak skutki uboczne, przeciwwskazania, ostrzeżenia o alergiach lub ryzyko związane z suplementami, żywnością, dietami lub określonymi praktykami”. „Niepokoi mnie to, że nie opublikowano żadnych badań szczegółowo testujących bezpieczeństwo ChatGPT Health” – powiedział Ruani. „Które podpowiedzi użytkownika, ścieżki integracji lub źródła danych mogą prowadzić do błędnych wskazówek lub szkodliwych dezinformacji?”Zarejestruj się: e-mail z najświeższymi wiadomościami AUChatGPT został opracowany przez OpenAI, które wykorzystało narzędzie HealthBench do opracowania ChatGPT Health. HealthBench zatrudnia lekarzy do testowania i oceny skuteczności modeli sztucznej inteligencji w odpowiedzi na pytania zdrowotne. Ruani stwierdził, że pełna metodologia stosowana przez HealthBench i jej oceny są „w większości nieujawnione, a nie opisane w niezależnych recenzowanych badaniach”. „ChatGPT Health nie jest regulowany jako wyrób medyczny ani narzędzie diagnostyczne. Zatem nie ma obowiązkowych kontroli bezpieczeństwa, raportowania ryzyka, nadzoru po wprowadzeniu do obrotu ani wymogu publikowania danych z testów”. Rzecznik OpenAI powiedział Guardian Australia, że firma nawiązała współpracę z ponad 200 lekarzami z 60 krajów „w celu doradzania i ulepszania modeli obsługujących ChatGPT Health”. „ChatGPT Health to dedykowana przestrzeń, w której rozmowy dotyczące zdrowia są oddzielone od reszty czatów, z domyślnymi silnymi zabezpieczeniami prywatności” – powiedział rzecznik. Dane ChatGPT Health są domyślnie szyfrowane i podlegają ochronie prywatności. Udostępnianie stronom trzecim będzie odbywać się za zgodą użytkownika lub w ograniczonych okolicznościach określonych w polityce prywatności OpenAI. z Forum Zdrowia Konsumentów w Australii dr Elizabeth Deveny stwierdziła, że rosnące koszty leczenia z własnej kieszeni i długi czas oczekiwania na wizytę u lekarza skłaniają ludzi do korzystania ze sztucznej inteligencji. Powiedziała, że ChatGPT Health może być przydatny w pomaganiu ludziom w radzeniu sobie z dobrze znanymi chorobami przewlekłymi oraz w badaniu sposobów na utrzymanie zdrowia. Zdolność sztucznej inteligencji do udzielania odpowiedzi w różnych językach „zapewnia realne korzyści osobom, które nie znają języka angielskiego” – stwierdziła. Deveny obawia się, że ludzie wezmą porady udzielane przez ChatGPT Health za dobrą monetę oraz że „duże globalne firmy technologiczne działają szybciej niż rządy”, ustalając własne zasady dotyczące prywatności, przejrzystości i gromadzenia danych. „To nie jest mała organizacja non-profit eksperymentująca w dobrej wierze. To jedna z największych firm technologicznych na świecie”. „Kiedy platformy komercyjne definiują norm, korzyści zwykle płyną do ludzi, którzy mają już zasoby, wykształcenie i wiedzę systemową. Ryzyko spada na tych, którzy tego nie robią”. Powiedziała, że ​​brak działań ze strony rządów pozostawił konsumentów sektora zdrowia w dużej mierze pozostawionych samych sobie w obliczu transformacji społecznej spowodowanej przez sztuczną inteligencję. „Potrzebujemy jasnych barier ochronnych, przejrzystości i edukacji konsumenckiej, aby ludzie mogli dokonywać świadomych wyborów co do tego, czy i w jaki sposób będą wykorzystywać sztuczną inteligencję dla swojego zdrowia” – powiedziała. „Nie chodzi o powstrzymywanie sztucznej inteligencji. Chodzi o podjęcie działań, zanim błędy, uprzedzenia i dezinformacje powielą się z szybkością i na skalę w sposób prawie niemożliwy do odrobienia”.


已Opublikowany: 2026-01-15 14:00:00

źródło: www.theguardian.com