Na przestrzeni ostatniego roku zagadnienie sztucznej inteligencji zdominowało internet. Mieliśmy możliwość obserwować lawinowy przyrost webinarów, szkoleń, kursów i zasobów online poświęconych tej tematyce.
W tym czasie również i my nie pozostawaliśmy wobec niego obojętni. Zrealizowaliśmy dwa webinary poświęcone sztucznej inteligencji (ChatGPT w akcji: odkrywamy nowe perspektywy i możliwości pracy nauczycieli akademickich, Sztuczna inteligencja jako partner w edukacji akademickiej: możliwości i wyzwania), a w ramach organizowanej przez nas cyklicznej konferencji eTEE – panel dyskusyjny ChatGPT i AI a dydaktyka akademicka.
Z uwagą i ciekawością zatem uczestniczyliśmy w dniach 11-12.06.2024 w konferencji z cyklu Architektura informacji jako dyscyplina akademicka (AIDA). Temat wiodący czwartej edycji konferencji to AIDA 4: AI versus IA – architektura informacji w erze algorytmów.
W trakcie dwóch dni spotkań swoje wystąpienia zaprezentowali przedstawiciele instytutów i ośrodków prowadzących kierunki, specjalności oraz kursy z zakresu architektury informacji, eksperci zajmujący się wykorzystaniem narzędzi sztucznej inteligencji w projektowaniu przestrzeni informacyjnych, przedstawiciele firm oraz studenci reprezentujący koła naukowe. W programie konferencji znalazło się wiele ciekawych, ważnych i inspirujących prezentacji – uporządkowanych w ramach siedmiu sesji tematycznych.
Udział w konferencji wzięli również zagraniczni goście Heather Hedden oraz Jorge Arango. Heather Hedden – jest ekspertką w dziedzinie taksonomii i zarządzania informacją, a także autorką wielu publikacji i książki The Accidental Taxonomist. W prezentacji poruszyła kwestię taksonomii jako ważnego komponentu w projektowaniu architektury informacji. Przedstawiła sposoby jej tworzenia i rolę jaką pełni we wspieraniu architektury informacji, również sposoby wykorzystywana AI na potrzeby tworzenia taksonomii (zob. Hedden Information Management).
Z kolei prezentacja Jorge Arango – architekta informacji, autora książek, nauczyciela i popularyzatora wiedzy z zakresu projektowania informacji i tworzenia produktów cyfrowych – dotyczyła praktyk projektowania w dobie sztucznej inteligencji.
Sztuczna inteligencja zyskuje na uwadze i znaczeniu w różnych dziedzinach i kontekstach, również w nauce i dydaktyce. Dwudniowe prezentacje, dyskusje na forum i w kuluarach pokazały, w jak wielu ujęciach i wątkach jest aktualnie rozpatrywana.
Jako pracowniczki CeLiID starałyśmy się wynotować aspekty, które w naszym odczuciu są istotne w środowisku akademickim. Przedstawiamy poniżej tylko kilka z nich.
Systemy sztucznej inteligencji
W trakcie otwierającego wystąpienia W walce z ciemną stroną AI: zagrożenia i obrona przed atakami na dane Andrzej Brodnicki (AGH) wprowadził nas w zagadnienia zw. z gigantycznymi zbiorami danych, sieciami neuronowymi, maszynowym uczeniem, uczeniem skoncentrowanym na danych.
Pojęcia te związane są z systemami sztucznej inteligencji (SI), które nierzadko narażone są na ataki (np. adwersalialne, wstrzykiwanie szumów, manipulacja etykietami). Celem zaplanowanych ataków jest zaburzenie i zakłócanie działania systemów SI. Z tego względu niezwykle istotna jest świadomość nt. ich funkcjonowania oraz możliwości wystąpienia potencjalnych zagrożeń. Rolą administratorów jest zapewnienie ich integralności i niezawodności, natomiast użytkowników czujność w zakresie weryfikacji i analizy danych/wyników końcowych. W AGH nad bezpieczeństwem systemów czuwa Centrum Bezpieczeństwa Informacji, Centrum Cyberbezpieczeństwa, Centrum Technologii Bezpieczeństwa oraz Centrum Doskonałości Sztucznej Inteligencji.
Wątek bezpieczeństwa i wiarygodności szerzej omówione były w wystąpieniach Sztuczna inteligencja w walce z cyberprzemocą (Maciej Saskowski, UKEN w Krakowie) oraz Wpływ sztucznej inteligencji na tworzenie fake newsów (Mateusz Szudra i Tatiana Foks, UMK w Toruniu).
Cyberzagrożenia
Czas pandemii COVID 19 przyczynił się m.in. do wzrostu cyberprzemocy (m.in. trollowanie, flaming, stalking, gaslighting). Według Instytutu Statystycznego UNESCO jedna trzecia światowej młodzieży doświadcza przemocy lub nękania w różnej formie. Badania wykazały, że studenci doświadczali nękania za pośrednictwem mediów cyfrowych (zob. Profilaktyka cyberprzemocy – przykłady działań z Polski i świata). W odpowiedzi na skalę problemu zaczęły powstawać narzędzia sztucznej inteligencji do wykrywania ataków personalnych, mowy nienawiści, treści suicydalnych czy pedofilii.
Wśród nich Maciej Saskowski wymienił m.in.:
- stworzone przez Polaków narzędzie Samurai Labs – to neuro-symboliczna sztuczna inteligencja, mająca zastosowanie przede wszystkim w grach i społecznościach online to de facto cyfrowy strażnik, asystent wspierający nauczyciela-człowieka;
- Steer Education – aplikacja społeczno-emocjonalna, której celem jest rozpoznanie problemów psychichicznych dzieci i młodzieży, zdiagnozowanie wpływu szkoły na rozwój społeczno-emocjonalny uczniów oraz wsparcie młodych ludzi w zakresie rozwijania umiejętności, które pozwolą im samodzielnie kierować drogą dorastania;
- Securly – aplikacja wykorzystująca sztuczną inteligencję do filtrowania sieci, monitorowania cyberprzemocy i śledzenia alertów zw. z przemocą;
- Bark – narzędzie wykorzystujące sztuczną inteligencję do monitorowania wiadomości tekstowych, YouTube i 24 różnych sieci społecznościowych, by ostrzegać rodziców o potencjalnych zagrożeniach zw. z cyberprzemocą.
Wiarygodność informacji
Nasze poczucie bezpieczeństwa społecznego uzależnione jest od wiarygodnej, rzetelnej i sprawdzonej informacji. Dostęp do internetu, łatwe i szybkie przekazywanie informacji sprawiło, że tworzą ją nie tylko profesjonalne grupy zawodowe – naukowcy, badacze, dziennikarze, eksperci dziedzinowi i branżowi. Aktualnie każdy człowiek staje się potencjalnym dostawcą informacji i treści. Mało tego! Sztuczna inteligencja również uczestniczy w tym procesie. Z tego powodu powinniśmy bardziej świadomie i uważnie “konsumować”, weryfikować i przyswajać, to co znajdujemy w sieci.
Na rosnącą rolę SI w generowaniu fake newsów zwrócili uwagę Mateusz Szudra i Tatiana Foks. Dezinformacja, szumy, zniekształcenia, zakłamania powstają w oparciu o mechanizmy SI – generatory tekstu (fakenews), obrazów, wideo (deepfake wideo). Te pseudoinformacje, pseudotreści prowadzą do zakłamania rzeczywistości, poważnych i negatywnych skutków – zagrożeń bezpieczeństwa, naruszeń prawnych etc. Z tego względu konieczne jest rozwijanie narzędzi analitycznych, których celem jest rozpoznanie fałszywych informacji i treści w formie tekstowej, jak i multimedialnej. Równolegle zaleca się opracowanie regulacji prawnych dotyczących wykorzystania SI do generowania dezinformacji oraz określenia odpowiedzialności w tym zakresie.
Jak podkreślili prelegenci kluczowym elementem przeciwdziałania dezinformacji jest edukacja – podnoszenie świadomości oraz umiejętności krytycznego myślenia i weryfikacji źródeł. Niebagatelną rolę odgrywa tu również architekt informacji odpowiedzialny za prezentację i weryfikację treści, dobre projektowanie (UX) oraz wizualizację.
User Experience
Naszą uwagę przykuły zatem również wystąpienia związane z wykorzystaniem SI w projektowaniu User Experience (UX). Narzędzia SI wspierają projektantów na każdym etapie pracy – oferują rozwiązania umożliwiające tworzenie intuicyjnych i estetycznych interfejsów użytkownika.
Przykładem tego typu narzędzi są:
- UIzard – automatyzuje tworzenie interfejsów, dzięki czemu pozwala zaoszczędzić czas i skupić się projektantowi na kreatywnych aspektach projektu,
- Midjourney – dostarcza inspiracji wizualnych, wspiera projektantów w tworzeniu atrakcyjnych wizualnie koncepcji,
- Ideogram, dall-e 3 i galileo.ai – narzędzia umożliwiające generowanie i edycję obrazów, nieocenione przy tworzeniu prototypów i wizualizacji pomysłów,
- UX Pilot – dzięki zaawansowanej analityce, dostarcza danych niezbędnych do optymalizacji projektów,
- Miro – narzędzie do współpracy zespołowej, pozwala na efektywne zarządzanie projektami i integrację różnych elementów,
- wtyczka do Figmy o nazwie Jambot – ułatwia synchronizację pracy zespołu (co jest kluczowe dla spójności projektu).
Dostępność cyfrowa
Przy projektowaniu stron, serwisów internetowych czy narzędzi SI warto pamiętać również o kwestii dostępności. Temat ten podjęły Małgorzata Dąbrowska, Julia Dzikoń, Alicja Jakubczyk (UMK w Toruniu), które dokonały analizy trzech najpopularniejszych czatów SI (Gemini, OpenAI i Copilot) według wytycznych WCAG 2.1 od World Wide Web Consortium. Audyt czatów obejmował kilka kryteriów oceny – postrzegalność, funkcjonalność, zrozumiałość oraz solidność. Warto zasygnalizować tę kwestię, bo wydaje nam się ważnym aspektem dla osób/jednostek, które rozważają projektowanie i wdrażanie narzędzi SI.
SI vs. człowiek
Zadaniem sztucznej inteligencji, bazującej na algorytmach, maszynowym uczeniu się, rozpoznawaniu obiektów etc. jest wspieranie człowieka w organizowaniu, wyszukiwaniu i dostępie do informacji, optymalizacja jego pracy, inspiracja czy stanowienie punktu wyjścia do poszukiwań. Jednak to człowiek – jak zaznaczyła Anna Pietruszka w wystąpieniu Definiowanie strategii AI: jak skutecznie budować modele biznesowe w oparciu o AI – wprowadza wiedzę, wiedzę ekspercką, umiejętności i kompetencje (takie jak np. umiejętność weryfikacji, redukcję przekłamań, szumów informacyjnych, krytyczne myślenie). Człowiek również wprowadza do SI odpowiedzialność, sprawstwo i działanie.
Uczestniczki konferencji: Marta Stąporek, Gabriela Wielgus, Agnieszka Kleszcz-Rusek
Program konferencji AIDA4
_________
Photo by Igor Omilaev on Unsplash