Czego uczniowie nauczyli się po rozmowie z botem-terapeutą z lat 60.
Jedna z uczennic powiedziała jej, że chatbot „opalał gazem”. Inny uczeń uważał, że chatbot nie jest zbyt dobrym terapeutą i nie pomógł w żadnym z ich problemów. Coraz więcej osób w każdym wieku zastępuje chatboty licencjonowanymi specjalistami zajmującymi się zdrowiem psychicznym, ale ci studenci nie robili tego. Rozmawiali o ELIZA — podstawowym chatbocie dla terapeutów, zbudowanym w latach 60. XX wieku przez Josepha Weizenbauma, który odzwierciedla wypowiedzi użytkowników w postaci pytań. Jesienią 2024 r. badacze z EdSurge zajrzeli do klas, aby zobaczyć, jak nauczyciele zmagają się z rewolucją przemysłową sztucznej inteligencji. Jedna z nauczycielek, instruktorka technologii edukacyjnych w gimnazjum w niezależnej szkole w Nowym Jorku, udostępniła opracowany przez siebie plan lekcji na temat generatywnej sztucznej inteligencji. Jej celem było pomóc uczniom zrozumieć, jak naprawdę działają chatboty, aby mogli zaprogramować własne. W porównaniu do chatbotów AI, z których korzystali uczniowie, chatbot ELIZA był tak ograniczony, że niemal natychmiast ich frustrował. ELIZA wciąż namawiała ich, aby „powiedzieli mi więcej”, a rozmowy toczyły się w kółko. A kiedy uczniowie próbowali go obrazić, bot spokojnie odpowiedział: „Rozmawialiśmy o tobie, nie o mnie”. Nauczycielka zauważyła, że jej uczniowie mieli poczucie, że „jako bot „terapeutyczny” ELIZA wcale nie poprawiła im nastroju ani nie pomogła im w żadnym z ich problemów”. Inny próbował dokładniej zdiagnozować problem: ELIZA brzmiała po ludzku, ale najwyraźniej nie rozumiała, co mówili. Ta frustracja była częścią lekcji. Ważne było, aby nauczyć jej uczniów krytycznego badania działania chatbotów. Nauczyciel ten stworzył piaskownicę, w której uczniowie mogą zaangażować się w to, co naukowcy zajmujący się uczeniem się nazywają produktywną walką. W tym raporcie z badań zagłębię się w naukę leżącą u podstaw tej lekcji, sprawdzając, w jaki sposób nie tylko pomaga ona uczniom dowiedzieć się więcej o niezbyt magicznych mechanizmach sztucznej inteligencji, ale także obejmuje ćwiczenia inteligencji emocjonalnej. Odpowiedzi uczniów tak mnie łaskotały, że zapragnęłam spróbować ELIZY. Z pewnością mogłaby mi pomóc w moich bardzo prostych problemach. Rozmowa testowa pomiędzy badaczem EdSurge a modelem ELIZA, pierwszego chatbota AI opracowanego przez Josepha Weizenbauma w latach 60. XX wieku. Ten model chatbota został opracowany przez Norberta Landsteinera i jest dostępny pod adresem: Masswerk.at/elizabot/. Nauka o uczeniu się za lekcją Lekcja była częścią szerszego projektu badawczego EdSurge Research, mającego na celu zbadanie, w jaki sposób nauczyciele podchodzą do umiejętności korzystania z sztucznej inteligencji w klasach szkół podstawowych i gimnazjalnych. Nauczyciel ten należał do międzynarodowej grupy 17 nauczycieli uczniów klas od trzeciej do dwunastej. Kilku uczestników zaprojektowało i dostarczyło scenariusze lekcji w ramach projektu. W tym raporcie z badania opisano jedną lekcję zaprojektowaną przez uczestniczkę, czego nauczyli się jej uczniowie i co inni uczestnicy podzielili się na temat postrzegania sztucznej inteligencji przez swoich uczniów. Zakończymy kilkoma praktycznymi zastosowaniami tych spostrzeżeń. Nie będzie już więcej majstrowania przy ELIZIE — chyba że ktoś pomyśli, że mogłaby pomóc w moim „maluchowym” problemie. Zamiast uczyć uczniów, jak korzystać z narzędzi sztucznej inteligencji, ta nauczycielka skorzystała z pomocy pseudopsychologa, aby skupić się na nauczaniu, jak działa sztuczna inteligencja i jakie są jej niezadowolenie. To podejście zawiera wiele ćwiczeń rozwijających umiejętności. Jedna z tych umiejętności jest częścią budowania inteligencji emocjonalnej. Nauczycielka kazała uczniom użyć przewidywalnie frustrującego chatbota, a następnie zaprogramować własnego chatbota, o którym wiedziała, że nie będzie działać bez magicznego składnika — czyli danych szkoleniowych. Rezultatem było wyzywanie i obrażanie chatbota przez uczniów gimnazjum, a następnie samodzielne odkrywanie, jak chatboty działają, a jak nie. Ten proces napotykania problemu, frustracji, a następnie rozwikłania problemu pomaga budować tolerancję na frustrację. Jest to umiejętność, która pomaga uczniom pracować nad trudnymi lub wymagającymi zadaniami poznawczymi. Zamiast zwlekać lub wycofywać się w miarę wspinania się po rusztowaniu trudności, uczą się strategii radzenia sobie. Kolejną ważną umiejętnością, której uczy ta lekcja, jest myślenie obliczeniowe. Trudno nadążyć za tempem rozwoju technologii. Zamiast więc uczyć uczniów, jak uzyskać najlepsze wyniki z chatbota, ta lekcja nauczy ich, jak samodzielnie projektować i budować chatbota. To zadanie samo w sobie może zwiększyć pewność siebie ucznia w rozwiązywaniu problemów. Pomaga im także nauczyć się rozkładać abstrakcyjną koncepcję na kilka etapów, czyli w tym przypadku sprowadzać to, co wydaje się magią do najprostszej formy, rozpoznawać wzorce i debugować chatboty. Po co myśleć, skoro Twój Chatbot może? Doktor Jeannette M. Wing, wiceprezes wykonawczy ds. badań Uniwersytetu Columbia i profesor informatyki, spopularyzowała termin „myślenie obliczeniowe”. Jakieś 20 lat temu powiedziała: „Komputery są nudne i nudne, a ludzie są mądrzy i obdarzeni wyobraźnią”. W swojej publikacji z 2006 roku na temat użyteczności i ram myślenia obliczeniowego wyjaśnia tę koncepcję jako „sposób, w jaki myślą ludzie, a nie komputery”. Od tego czasu ramy te stały się integralną częścią edukacji w zakresie informatyki, a napływ sztucznej inteligencji rozprzestrzenił ten termin w różnych dyscyplinach. W niedawnym wywiadzie Wing twierdzi, że „myślenie obliczeniowe jest ważniejsze niż kiedykolwiek”, ponieważ zarówno informatycy przemysłowi, jak i akademiccy zgadzają się, że umiejętność kodowania jest mniej ważna niż podstawowe umiejętności, które odróżniają człowieka od komputera. Badania nad myśleniem obliczeniowym wykazują spójne dowody na to, że jest to podstawowa umiejętność przygotowująca uczniów do zaawansowanej nauki z różnych przedmiotów. Dlatego nauczanie umiejętności, a nie technologii, jest priorytetem w szybko zmieniającym się ekosystemie technologicznym. Myślenie obliczeniowe jest także ważną umiejętnością nauczycieli. Nauczycielka biorąca udział w badaniu EdSurge Research pokazała swoim uczniom, że bez człowieka sprytne reakcje ELIZY ograniczają się jedynie do katalogu zaprogramowanych reakcji. Oto jak przebiegła lekcja. Studenci zaczęli od interakcji z ELIZĄ, a następnie przenieśli się do MIT App Inventor, aby zakodować własne chatboty w stylu terapeuty. Podczas ich budowania i testowania poproszono ich o wyjaśnienie, co robi każdy blok kodujący, oraz o zauważenie wzorców reakcji chatbota. Zdali sobie sprawę, że bot nie „myśli” swoim magicznym mózgiem. Polegało to po prostu na zastępowaniu słów, przekształcaniu zdań i wypluwaniu ich w formie pytań. Boty były szybkie, ale nie „inteligentne” bez informacji w swojej bazie wiedzy, więc tak naprawdę nie mogły w ogóle na nic odpowiedzieć. To była lekcja myślenia obliczeniowego. Uczniowie rozkładali systemy na części, rozumiejąc dane wejściowe i wyjściowe oraz śledząc logikę krok po kroku. Uczniowie nauczyli się odpowiednio kwestionować postrzegany autorytet technologii, badać wyniki i odróżniać powierzchowną płynność od faktycznego zrozumienia. Ufanie maszynom pomimo wad Lekcja stała się nieco bardziej skomplikowana. Nawet po demontażu iluzji inteligencji wielu uczniów wyraziło duże zaufanie do nowoczesnych narzędzi AI, zwłaszcza ChatGPT, ponieważ częściej spełniały one swoje zadanie niż ELIZA. Rozumieją ich wady. Studenci powiedzieli: „ChatGPT może czasami dać ci złą odpowiedź i wprowadzić w błąd informacje”, jednocześnie przyznając, że: „Ogólnie rzecz biorąc, było to dla mnie naprawdę przydatne narzędzie”. Inni uczniowie byli pragmatyczni. „Wykorzystuję sztuczną inteligencję do tworzenia testów i podręczników do nauki” – wyjaśnił student. „Zbieram wszystkie moje notatki i przesyłam je, aby ChatGPT mogło tworzyć dla mnie praktyczne testy. To po prostu ułatwia mi pracę w szkole. „Inny był jeszcze bardziej bezpośredni: „Chcę tylko, aby sztuczna inteligencja pomogła mi przejść przez szkołę. „Uczniowie zrozumieli, że ich domowym chatbotom brakowało inteligentnego uroku ChatGPT. Zrozumieli także, przynajmniej koncepcyjnie, że duże modele językowe działają poprzez przewidywanie tekstu na podstawie wzorców zawartych w danych. Jednak ich zaufanie do współczesnej sztucznej inteligencji wynikało raczej z sygnałów społecznych, a nie ze zrozumienia jej mechanizmów. Ich rozumowanie było zrozumiałe: skoro tak wiele osób korzysta z tych narzędzi, a firmy zarabiają na nich tak dużo pieniędzy, muszą być one godne zaufania. „Zbudowali to inteligentni ludzie” – powiedział jeden z uczniów. To napięcie pojawiało się wielokrotnie w naszych szerszych grupach fokusowych z nauczycielami. Nauczyciele podkreślali ograniczenia, stronniczość i potrzebę weryfikacji. Z drugiej strony uczniowie postrzegali sztuczną inteligencję jako narzędzie przetrwania, sposób na zmniejszenie obciążenia pracą i radzenie sobie z presją akademicką. Zrozumienie, jak działa sztuczna inteligencja, nie zmniejszyło automatycznie jej wykorzystania ani zależności. Dlaczego umiejętności są ważniejsze niż narzędzia Ta lekcja nie wpłynęła od razu na zmianę wykorzystania sztucznej inteligencji przez uczniów. Zdemistyfikowało to jednak technologię i pomogło uczniom zrozumieć, że to nie magia czyni technologię „inteligentną”. Ta lekcja nauczyła uczniów, że chatboty to duże modele językowe, które wykonują ludzkie funkcje poznawcze za pomocą przewidywania, ale narzędziami nie są ludzie obdarzeni empatią i innymi niepowtarzalnymi cechami ludzkimi. Nauczenie uczniów, jak korzystać z określonego narzędzia sztucznej inteligencji, jest strategią krótkoterminową i jest zgodne z szeroko dyskutowanym bankowym modelem edukacji. Narzędzia zmieniają się jak nazewnictwo, a zmiany te odzwierciedlają zmiany społeczno-kulturowe i paradygmatowe. To, co się nie zmienia, to potrzeba rozumowania na temat systemów, kwestionowania wyników, zrozumienia, skąd bierze się władza i władza, oraz rozwiązywania problemów przy użyciu poznania, empatii i relacji międzyludzkich. Badania nad umiejętnością korzystania z sztucznej inteligencji coraz częściej wskazują na ten kierunek. Uczeni twierdzą, że znacząca edukacja w zakresie sztucznej inteligencji w mniejszym stopniu skupia się na biegłości w posługiwaniu się narzędziami, a bardziej na pomaganiu uczniom w wyciąganiu wniosków na temat danych, modeli i systemów socjotechnicznych. Ta lekcja wcieliła te pomysły w życie. Dlaczego dyskrecja nauczycieli ma znaczenie? Ta lekcja dała uczniom język i doświadczenie, dzięki którym mogli jaśniej myśleć o generatywnej sztucznej inteligencji. W czasach, gdy szkoły odczuwają presję, aby przyspieszyć przyjęcie sztucznej inteligencji lub całkowicie ją zaprzestać, liczy się dyskrecja i wiedza nauczycieli. W miarę jak coraz więcej chatbotów pojawia się w sieci WWW, bariery ochronne stają się ważne, ponieważ chatboty nie zawsze są bezpieczne bez nadzoru i instrukcji. Zrozumienie, jak działają chatboty, pomaga uczniom z czasem rozwinąć umiejętności podejmowania decyzji etycznych i moralnych w zakresie odpowiedzialnego korzystania ze sztucznej inteligencji. Nauczanie myślenia, a nie narzędzi, nie rozwiąże od razu wszystkich napięć, jakie uczniowie i nauczyciele odczuwają w związku ze sztuczną inteligencją. Daje im jednak coś trwalszego niż biegłość w posługiwaniu się narzędziami, na przykład możliwość zadawania lepszych pytań, a umiejętność ta będzie miała znaczenie długo, gdy dzisiejsze narzędzia staną się przestarzałe.
已Opublikowany: 2026-01-16 08:39:00
źródło: www.edsurge.com








