O jakości kształcenia w kontekście rozwoju sztucznej inteligencji. Sympozjum na WUM

Dzień Kultury Jakości Uczelni na WUM tym razem odbywał się pod hasłem „Uniwersytet w czasach AI: między postępem a niepewnością". Eksperci przedstawili możliwości wykorzystania AI zarówno w działalności badawczej, jak i w dydaktyce.

Nikogo nie trzeba przekonywać, że sztuczna inteligencja to dziś niezwykle aktualny i kontrowersyjny temat. W środowisku medycznym ma tyluż zwolenników, co przeciwników. Zwłaszcza ci ostatni zastanawiają się, czy AI w niedługim czasie zastąpi lekarzy i nauczycieli medycyny. To pytanie padło również w trakcie sympozjum odbywającego się na WUM w ramach Dnia Kultury Jakości Uczelni. 

W spotkaniu wzięli udział nauczyciele akademiccy, studenci, eksperci w zakresie AI, a także goście z Ukrainy. Gospodarzami byli przedstawiciele Uczelnianego Zespołu ds. Jakości Kształcenia WUM: dr hab. Piotr Dziechciarz (przewodniczący) i dr Antonina Doroszewska, a także dr Jakub Sokolnicki, kierownik Centrum Jakości Kształcenia i Rozwoju Kompetencji WUM. Konferencja odbywała się w Centrum Symulacji Medycznych, ale można było dołączyć również on-line.

Sztuczna inteligencja w pracy naukowej

Czy używanie chata GPT przy pisaniu i recenzowaniu prac naukowych jest dopuszczalne, gdzie jest granica? – od tego pytania zaczęła swoją prezentację pt.: "AI w nauce: inteligencja sztuczna, wyzwania prawdziwe" prof. Hanna Szajewska, kierownik Kliniki Pediatrii WUM. Profesor przedstawiła, jakie zasady korzystania z AI obowiązują przy pisaniu prac naukowych.

- Te zasady różnią się w zależności od wydawnictwa. Wiele redakcji wymaga, aby autorzy ujawniali użycie AI przy tworzeniu prac – mówiła profesor. Podobnie przy pisaniu recenzji. Na przykład stanowisko „Nature” jest takie, że wykorzystanie AI trzeba dokładnie opisać. Potrzebne są: szczegóły na temat użytego systemu, użyty prompt, data zadania pytania AI – wszystko to musi być publicznie dostępne. Natomiast inne czasopismo – „Jama” w ogóle nie wyraża zgody na używanie sztucznej inteligencji przy pisaniu recenzji. 

Profesor Szajewska przyznaje, że sama korzysta z ChatGPT do recenzowania własnych prac.

- Oczywiście z częścią jego uwag się zgadzam, z częścią – nie. Jednak byłoby niemądre, gdybym w ogóle nie brała tego pod uwagę. AI często jest postrzegana jako forma oszustwa – zamiast być uznawana za narzędzie wspierające naukę i badania – podkreśliła ekspertka.

Profesor mówiła również o innych narzędziach AI i ich zastosowaniu w medycynie - głównie w obrazowaniu. A swoją prezentację zakończyła cytatem z Jesse M. Ehrenfelda, prezesa American Medical Association: „AI nigdy nie zastąpi lekarzy. Jednak lekarze, którzy nie korzystają z AI, zastąpią tych, którzy tego nie robią”.

Sztuczna inteligencja w dydaktyce

O zastosowaniu AI w dydaktyce mówiła dr hab. Joanna Mytnik, dyrektor Centrum Nowoczesnej Edukacji na Politechnice Gdańskiej. Zaprezentowała wykład „Globalna zmiana w myśleniu o uczeniu się: AI i pokolenie alfa na uniwersytetach”. Ekspertka scharakteryzowała pokolenie alfa – czyli obecnych nastolatków, którzy już w 2030 roku trafią na studia. Podkreślała, że są to osoby, które uczą się poprzez bycie w ciągłej interakcji, a w nauce są zorientowani na efekt, a nie na proces. Zdaniem dr hab. Joanny Mytnik, to poważne wyzwanie dla dydaktyków.

O nowoczesnych metodach dydaktycznych z wykorzystaniem sztucznej inteligencji i ich praktycznym zastosowaniu mówiła dr Agata Komendant-Brodowska z Katedry Socjologii Cyfrowej Uniwersytetu Warszawskiego. Tytuł jej wykładu: "To my robimy transformację cyfrową - jak włączać nowe metody w swoją praktykę dydaktyczną i nie zwariować?".

Podczas Dnia Kultury Jakości Uczelni wystąpił również dr Marcin Kaczor, kierownik Centrum Symulacji Medycznych WUM i entuzjasta nowych technologii. Już na wstępie zaznaczył, jak dynamicznie rozwijającą się dziedziną są symulacje medyczne. W Polsce w 2014 roku istniały 4 centra symulacji medycznych, w 2024 – już 92. Doktor Marcin Kaczor opowiedział również o plusach, jakie daje zastosowanie AI w dydaktyce medycznej. Znalazły się tutaj takie korzyści jak: personalizacja nauki, możliwość stworzenia wirtualnych asystentów i chatbotów, którzy mogliby pełnić funkcję nauczycieli, automatyzacja oceny i feedback, generowanie wirtualnych pacjentów i przypadków klinicznych, poprawa zaangażowania poprzez np. grywalizację (wykorzystanie elementów gier w dydaktyce). 

- Jeśli mamy szanse, to musimy pamiętać też o ograniczeniach – zaznaczył ekspert – Są to: ryzyko błędów, ryzyko stronniczości danych, brak pełnej wiarygodności. 

Zastosowanie AI w medycynie i dydaktyce było też tematem prezentacji lek. Anny Rosady ze Studium Komunikacji Medycznej. Natomiast Anna Kupczak, przewodnicząca Samorządu Studentów WUM opowiedziała o swoich doświadczeniach z ChatGPT oraz pokazała wyniki badania, które przeprowadziła na 50 studentach naszej uczelni, a dotyczyło ono korzystania ze sztucznej inteligencji, głównie z dużych modeli językowych.

Praktyczne narzędzie do generowania pytań

Z wyjątkowo ciekawą prezentacją pt. „MedQuiz Professional Designer, czyli pytania tworzone szybko, dobrze i skutecznie” wystąpiła prof. Joanna Gotlib-Małkowska, kierownik Zakładu Edukacji i Badań w Naukach o Zdrowiu WUM. Ekspertka zwróciła uwagę, że w Pub-Medzie mamy coraz więcej publikacji na temat wykorzystania sztucznej inteligencji w edukacji. Są badania porównujące różne modele językowe, można znaleźć prace pokazujące, jak ChatGPT sprawdza się w różnych systemach pisma (najlepiej radzi sobie w języku angielskim).

- Pojawiła się również praca polskich autorów analizująca, jak ChatGPT radzi sobie z egzaminami LEK. A od roku zainteresowano się też analizą wygenerowanych przez ChatGPT pytań egzaminacyjnych – mówiła ekspertka.

Profesor Gotlib-Małkowska pokazała ciekawe badanie porównujące trudność i moc różnicującą pytań układanych przez człowieka i tworzonych przez sztuczną inteligencję. Okazało się, że jeśli chodzi o poziom trudności są różnice istotne statystyczne. Jednak gdy weźmiemy pod uwagę moc różnicującą (czyli to - czy dane pytanie pomaga odróżnić studentów, którzy dobrze opanowali materiał od tych, którzy mają z nim trudności) - nie było istotnych różnic. 

- Trzeba jednak pamiętać, że dla jakości pytań tworzonych przez AI kluczowe znaczenie mają: jakość promptu oraz dodatkowy kontekst – podkreśliła ekspertka.

Profesor Gotlib-Małkowska jest autorką MedQuiz Professional Designer. To model zbudowany w oparciu o ChatGPT i dostępny w ramach ChatGPT. Stanowi pomoc dla nauczycieli akademickich, ale może być wykorzystywany również przez studentów. Służy do układania pytań testowych. Ekspertka pokazała jego działanie krok po kroku.

- Na początku musimy określić, ile pytań chcemy wygenerować i jakiego rodzaju, czy np. mają to być pytania jednokrotnego wyboru, z lukami, czy złożone? Model potrzebuje również informacji, czy ma generować odpowiedzi. Na końcu dodajemy kontekst, czyli plik z materiałem dydaktycznym, na bazie którego Chat powinien stworzyć pytania. Gdy wprowadzimy te informacje – otrzymamy pytania. Oczywiście ich poprawność zawsze musimy zweryfikować - podkreśliła ekspertka.

Po prezentacji profesor Gotlib-Małkowskiej pojawiło się wiele pytań, m.in. o prawa autorskie kontekstu, który wrzucamy do ChatGPT.

- Każde dobre sympozjum odpowiada dobrze na wiele pytań, ale jeszcze więcej ich generuje. I z tej perspektywy nasze spotkanie spełniło swoje zadanie w stu procentach - zakończył konferencję dr hab. Piotr Dziechciarz. 

W wydarzeniu uczestniczyli m.in. prof. Rafał Krenke, rektor WUM oraz prof. Aneta Nitsch-Osuch, prodziekan WL ds. programów i jakości kształcenia.