Strona główna Wiadomości Strzeż się mesjasza wydajności AI | mtgamer.com

Strzeż się mesjasza wydajności AI | mtgamer.com

14
0

Strzeż się mesjasza wydajności AI

Sztuczna inteligencja przeżywa swój moment mesjasza w sektorze humanitarnym. W miarę jak agencje zmagają się z cięciami w finansowaniu i zwolnieniami, sztuczną inteligencję coraz częściej postrzega się jako rozwiązanie, które umożliwi organizacjom osiąganie więcej za mniej – lub w niektórych przypadkach po prostu przetrwanie. Urok sztucznej inteligencji jest niezaprzeczalny, ale rzeczywistość jest bardziej złożona. Sztuczna inteligencja może zwiększyć efektywność w niektórych obszarach, ale jej wpływ nie jest prosty w kontekście humanitarnym. Goniąc za obietnicami sztucznej inteligencji, humanitaryści ryzykują odsunięciem na bok swoich zasad i wycofaniem się z bardzo potrzebnych reform systemowych. Istnieją jednak sposoby wykorzystania potencjalnych korzyści ze sztucznej inteligencji przy jednoczesnej minimalizacji szkód. Wszyscy, którzy finansują, planują i wdrażają pomoc humanitarną, mają do odegrania rolę. Zdefiniuj efektywność: pod kątem jakiego celu optymalizujemy? Wydajność, często wymieniana jako najmocniejsza strona sztucznej inteligencji, nie jest koncepcją neutralną: kształtuje ją to, co jest traktowane priorytetowo i mierzone. Czy efektywność oznacza redukcję kosztów? Zwiększona produktywność personelu? A może celem jest maksymalizacja wpływu na poziomie społeczności? Te rozróżnienia mają znaczenie. W niektórych przypadkach rozwiązania sztucznej inteligencji mogą obniżyć koszty, usuwając personel pierwszej linii lub personel krajowy – na przykład w projektach wykorzystujących sztuczną inteligencję do oceny publicznych zbiorów danych w celu szybszego generowania ocen bezpieczeństwa lub w trudno dostępnych obszarach, co mogłoby zmniejszyć zapotrzebowanie na personel naziemny i lokalną wiedzę specjalistyczną. Choć w niektórych przypadkach taki kompromis może być konieczny, brak zbadania, gdzie nastąpi wzrost wydajności i kto ostatecznie za to zapłaci, może spowodować unieważnienie długotrwałych zobowiązań humanitarnych. Co więcej, założenie, że sztuczna inteligencja z natury redukuje koszty, ignoruje jej ukryte wydatki. Na przykład testowanie i ocena systemów sztucznej inteligencji – czynność zapewniająca, że ​​systemy sztucznej inteligencji będą nadal działać bezpiecznie i zgodnie z przeznaczeniem – wymaga wyspecjalizowanego personelu i rygorystycznych procesów zapewniania. Wiążą się one ze znacznymi kosztami finansowymi i czasowym, które często są pomijane lub wykluczane przy kalkulacji kosztów rozwiązań AI. Jednak brak odpowiedniego przetestowania i braku zapewnienia systemów sztucznej inteligencji stwarza ryzyko zwiększenia szkód dla jednostek i społeczności, którym mają służyć organizacje humanitarne. Bez głębszej analizy sektor ryzykuje stosowanie sztucznej inteligencji dla niej samej, zamiast zajmować się nierównościami strukturalnymi. Skrzyżowanie dróg do reformy systemu humanitarnego Rozwój sztucznej inteligencji zbiega się z okresem głębokich reform strukturalnych. W warunkach kryzysowych struktury humanitarne podlegają przeprojektowaniu, co stwarza zarówno ryzyko, jak i możliwości. Z jednej strony sztuczna inteligencja mogłaby przyspieszyć od dawna oczekiwane zmiany w kierunku decentralizacji i wspólnej władzy. Z drugiej strony może umocnić istniejące hierarchie, odwracając korzyści wynikające z lokalizacji. Sztuczna inteligencja wprowadza nową dynamikę władzy: kontrola nad danymi, relacje z dostawcami sztucznej inteligencji oraz dostęp do infrastruktury chmurowej i zasobów obliczeniowych stają się kluczowymi wyznacznikami wpływu. Wiele dużych agencji pomocowych potwierdziło swoje zaangażowanie w lokalizację, jednocześnie promując wydajność dzięki sztucznej inteligencji. Czy jednak napięcie między tymi dwoma programami jest do przezwyciężenia? Co potrzeba, aby kwadraturować to koło? Jeśli przyjęcie sztucznej inteligencji ma przyczynić się do pozytywnej transformacji, a nie jedynie wzmocnić istniejącą nierównowagę sił, sektor musi zbadać, czyje interesy służą i jak zorganizowany jest proces decyzyjny. Historycznie rzecz biorąc, władza w zarządzaniu pomocą humanitarną pozostawała skupiona w rękach darczyńców, instytucji i organizacji z siedzibą na Globalnej Północy. W tych organizacjach decyzje dotyczące zamówień publicznych i dostęp do finansowania kształtują priorytety. Jednak sztuczna inteligencja wprowadza nową dynamikę władzy: kontrola nad danymi, relacje z dostawcami sztucznej inteligencji oraz dostęp do infrastruktury chmury i zasobów obliczeniowych stają się kluczowymi wyznacznikami wpływu. Co należy zmienić Aby przeciwdziałać ryzyku utrwalania nierówności wynikających ze sztucznej inteligencji, darczyńcy muszą pomóc mniejszym organizacjom – szczególnie tym z Globalnego Południa – w zwiększeniu dostępu do dostawców sztucznej inteligencji i zachęcaniu do partnerstw między dużymi i małymi organizacjami, w których wymieniane są umiejętności i wiedza fachowa w zakresie sztucznej inteligencji. Od agencji humanitarnych należy wymagać przejrzystego ujawniania wykorzystania sztucznej inteligencji. Darczyńcy powinni żądać przeprowadzania ocen skutków etycznych interwencji opartych na sztucznej inteligencji za pośrednictwem stron trzecich lub ekspertów wewnętrznych. Certyfikacja w zakresie norm związanych z nietechnicznym zarządzaniem sztuczną inteligencją i jej wdrażaniem (takich jak ISO/IEEE 42001:2023, która ma pomóc organizacjom w odpowiedzialnym zarządzaniu wykorzystaniem sztucznej inteligencji) powinna stać się obowiązkowa, zapewniając organizacjom odpowiedzialne wdrażanie rozwiązań AI. Ponadto wszelkim inwestycjom w rozwiązania AI dokonywanym przez duże organizacje humanitarne z siedzibą na Globalnej Północy powinny towarzyszyć wysiłki na rzecz budowania zdolności organizacji z Globalnej Większości do odpowiedzialnego wdrażania sztucznej inteligencji. Sztuczna inteligencja musi zmniejszać – a nie pogłębiać – istniejące dysproporcje i nierówności. Jednocześnie sektor musi zbadać alternatywne podejścia do gromadzenia danych, modeli finansowania i struktur zarządzania, które odpowiadają bardziej sprawiedliwej przyszłości społeczności dotkniętych kryzysem. Nagradzanie agencji, dla których priorytetem jest odpowiedzialne zarządzanie danymi – na przykład poprzez angażowanie społeczności w podejmowanie decyzji dotyczących tego, jakie dane są gromadzone i w jaki sposób nimi zarządzane, lub ocenianie, czy praktyki dotyczące danych wzmacniają nierówności strukturalne lub je eliminują – mogłoby zaoferować ścieżki prowadzące do bardziej sprawiedliwego systemu. Włączenie sztucznej inteligencji do pracy humanitarnej to nie tylko ewolucja technologiczna; jest to systemowa reinżynieria. Bez celowej kontroli sztuczna inteligencja odtworzy i wzmocni te same struktury władzy, które powinniśmy przesłuchiwać. Jeszcze nie jest za późno, aby uniknąć takiego losu. Sektor musi jednak przewidywać ryzyko i kształtować te przejścia.


已Opublikowany: 2025-09-22 10:00:00

źródło: www.thenewhumanitarian.org