ZAPISZ SIĘ do Newslettera

Facebook Linkedin English

AIDA4 2024 – krótka relacja z konferencji

Marta Stąporek

02.07.2024

Artykuł opublikowany 4 miesiące i dzień temu.

Na przestrzeni ostatniego roku zagadnienie sztucznej inteligencji zdominowało  internet. Mieliśmy możliwość obserwować lawinowy przyrost webinarów, szkoleń, kursów i zasobów online poświęconych tej tematyce. 

W tym czasie  również i my nie pozostawaliśmy wobec niego obojętni. Zrealizowaliśmy dwa webinary poświęcone sztucznej inteligencji (ChatGPT w akcji: odkrywamy nowe perspektywy i możliwości pracy nauczycieli akademickich, Sztuczna inteligencja jako partner w edukacji akademickiej: możliwości i wyzwania), a w ramach organizowanej przez nas cyklicznej konferencji eTEE – panel dyskusyjny ChatGPT i AI a dydaktyka akademicka.

Z uwagą i ciekawością zatem uczestniczyliśmy w dniach 11-12.06.2024 w konferencji z cyklu Architektura informacji jako dyscyplina akademicka (AIDA). Temat wiodący czwartej edycji konferencji to AIDA 4: AI versus IA – architektura informacji w erze algorytmów.
W trakcie dwóch dni spotkań swoje wystąpienia zaprezentowali przedstawiciele instytutów i ośrodków prowadzących kierunki, specjalności oraz kursy z zakresu architektury informacji, eksperci zajmujący się wykorzystaniem narzędzi sztucznej inteligencji w projektowaniu przestrzeni informacyjnych, przedstawiciele firm oraz studenci reprezentujący koła naukowe. W programie konferencji znalazło się wiele ciekawych, ważnych i inspirujących prezentacji – uporządkowanych w ramach siedmiu sesji tematycznych.

Udział w konferencji wzięli również zagraniczni goście Heather Hedden oraz Jorge Arango. Heather Hedden –  jest ekspertką w dziedzinie taksonomii i zarządzania informacją, a także autorką wielu publikacji i książki The Accidental Taxonomist. W prezentacji poruszyła kwestię taksonomii jako ważnego komponentu w projektowaniu architektury informacji. Przedstawiła sposoby jej tworzenia i rolę jaką pełni we wspieraniu architektury informacji, również sposoby wykorzystywana AI na potrzeby tworzenia taksonomii (zob. Hedden Information Management).
Z kolei prezentacja Jorge Arango – architekta informacji, autora książek, nauczyciela i popularyzatora wiedzy z zakresu projektowania informacji i tworzenia produktów cyfrowych – dotyczyła praktyk projektowania w dobie sztucznej inteligencji.

Sztuczna inteligencja zyskuje na uwadze i znaczeniu w różnych dziedzinach i kontekstach, również w nauce i dydaktyce. Dwudniowe prezentacje, dyskusje na forum i w kuluarach pokazały, w jak wielu ujęciach i wątkach jest aktualnie rozpatrywana. 

Jako pracowniczki CeLiID starałyśmy się wynotować aspekty, które w naszym odczuciu są istotne w środowisku akademickim. Przedstawiamy poniżej tylko kilka z nich. 


Systemy sztucznej inteligencji

W trakcie otwierającego wystąpienia W walce z ciemną stroną AI: zagrożenia i obrona przed atakami na dane Andrzej Brodnicki (AGH) wprowadził nas w zagadnienia zw. z gigantycznymi zbiorami danych, sieciami neuronowymi, maszynowym uczeniem, uczeniem skoncentrowanym na danych.
Pojęcia te związane są z systemami sztucznej inteligencji (SI), które nierzadko narażone są na ataki (np. adwersalialne, wstrzykiwanie szumów, manipulacja etykietami). Celem zaplanowanych ataków jest zaburzenie i zakłócanie działania systemów SI. Z tego względu niezwykle istotna jest świadomość nt. ich funkcjonowania oraz możliwości wystąpienia potencjalnych zagrożeń. Rolą administratorów jest zapewnienie ich integralności i niezawodności, natomiast użytkowników czujność w zakresie weryfikacji i analizy danych/wyników końcowych. W AGH nad bezpieczeństwem systemów czuwa Centrum Bezpieczeństwa Informacji, Centrum Cyberbezpieczeństwa, Centrum Technologii Bezpieczeństwa oraz Centrum Doskonałości Sztucznej Inteligencji.

Wątek bezpieczeństwa i wiarygodności szerzej omówione były w wystąpieniach Sztuczna inteligencja w walce z cyberprzemocą (Maciej Saskowski, UKEN w Krakowie) oraz Wpływ sztucznej inteligencji na tworzenie fake newsów (Mateusz Szudra i Tatiana Foks, UMK w Toruniu). 

 

Cyberzagrożenia

Czas pandemii COVID 19 przyczynił się m.in. do wzrostu cyberprzemocy (m.in. trollowanie, flaming, stalking, gaslighting). Według Instytutu Statystycznego UNESCO jedna trzecia światowej młodzieży doświadcza przemocy lub nękania w różnej formie. Badania wykazały, że studenci doświadczali nękania za pośrednictwem mediów cyfrowych (zob. Profilaktyka cyberprzemocy – przykłady działań z Polski i świata). W odpowiedzi na skalę problemu zaczęły powstawać narzędzia sztucznej inteligencji do wykrywania ataków personalnych, mowy nienawiści, treści suicydalnych czy pedofilii. 

Wśród nich Maciej Saskowski wymienił m.in.:

  • stworzone przez Polaków narzędzie Samurai Labs – to neuro-symboliczna sztuczna inteligencja, mająca zastosowanie przede wszystkim w grach i społecznościach online to de facto cyfrowy strażnik, asystent wspierający nauczyciela-człowieka;
  • Steer Education – aplikacja społeczno-emocjonalna, której celem jest rozpoznanie problemów psychichicznych dzieci i młodzieży, zdiagnozowanie wpływu szkoły na rozwój społeczno-emocjonalny uczniów oraz wsparcie  młodych ludzi w zakresie rozwijania umiejętności, które pozwolą im samodzielnie kierować drogą dorastania;
  • Securly – aplikacja wykorzystująca sztuczną inteligencję do filtrowania sieci, monitorowania cyberprzemocy i śledzenia alertów zw. z przemocą;  
  • Bark – narzędzie wykorzystujące sztuczną inteligencję do monitorowania wiadomości tekstowych, YouTube i 24 różnych sieci społecznościowych, by ostrzegać rodziców o potencjalnych zagrożeniach zw. z cyberprzemocą.

 

Wiarygodność informacji

Nasze poczucie bezpieczeństwa społecznego uzależnione jest od wiarygodnej, rzetelnej i sprawdzonej informacji. Dostęp do internetu, łatwe i szybkie przekazywanie informacji sprawiło, że tworzą ją nie tylko profesjonalne grupy zawodowe – naukowcy, badacze, dziennikarze, eksperci dziedzinowi i branżowi. Aktualnie każdy człowiek staje się potencjalnym dostawcą informacji i treści. Mało tego! Sztuczna inteligencja również uczestniczy w tym procesie. Z tego powodu powinniśmy bardziej świadomie i uważnie “konsumować”, weryfikować i przyswajać, to co znajdujemy w sieci. 

Na rosnącą rolę SI w generowaniu fake newsów zwrócili uwagę Mateusz Szudra i Tatiana Foks. Dezinformacja, szumy, zniekształcenia, zakłamania powstają w oparciu o mechanizmy SI – generatory tekstu (fakenews), obrazów, wideo (deepfake wideo). Te pseudoinformacje, pseudotreści prowadzą do zakłamania rzeczywistości, poważnych i negatywnych skutków –  zagrożeń bezpieczeństwa, naruszeń prawnych etc. Z tego względu konieczne jest rozwijanie narzędzi analitycznych, których celem jest rozpoznanie fałszywych informacji i treści w formie tekstowej, jak i multimedialnej. Równolegle zaleca się opracowanie regulacji prawnych dotyczących wykorzystania SI do generowania dezinformacji oraz określenia odpowiedzialności w tym zakresie. 

Jak podkreślili prelegenci kluczowym elementem przeciwdziałania dezinformacji jest edukacja – podnoszenie świadomości oraz umiejętności krytycznego myślenia i weryfikacji źródeł. Niebagatelną rolę odgrywa tu również architekt informacji odpowiedzialny za prezentację i weryfikację treści, dobre projektowanie (UX) oraz wizualizację.

 

User Experience

Naszą uwagę przykuły zatem również wystąpienia związane z wykorzystaniem SI w projektowaniu User Experience (UX). Narzędzia SI wspierają projektantów na każdym etapie pracy – oferują rozwiązania umożliwiające tworzenie intuicyjnych i estetycznych interfejsów użytkownika.
Przykładem tego typu narzędzi są:

  • UIzard – automatyzuje tworzenie interfejsów, dzięki czemu pozwala zaoszczędzić czas i skupić się projektantowi na kreatywnych aspektach projektu,
  • Midjourney – dostarcza inspiracji wizualnych, wspiera projektantów w tworzeniu atrakcyjnych wizualnie koncepcji,
  • Ideogram, dall-e 3 i galileo.ai – narzędzia umożliwiające generowanie i edycję obrazów, nieocenione przy tworzeniu prototypów i wizualizacji pomysłów,
  • UX Pilot – dzięki zaawansowanej analityce, dostarcza danych niezbędnych do optymalizacji projektów,
  • Miro – narzędzie do współpracy zespołowej, pozwala na efektywne zarządzanie projektami i integrację różnych elementów,
  • wtyczka do Figmy o nazwie Jambot – ułatwia synchronizację pracy zespołu (co jest kluczowe dla spójności projektu).

 

Dostępność cyfrowa

Przy projektowaniu stron, serwisów internetowych czy narzędzi SI warto pamiętać również o kwestii dostępności. Temat ten podjęły Małgorzata Dąbrowska, Julia Dzikoń, Alicja Jakubczyk (UMK w Toruniu), które dokonały analizy trzech najpopularniejszych czatów SI (Gemini, OpenAI i Copilot) według wytycznych WCAG 2.1 od World Wide Web Consortium. Audyt czatów obejmował kilka kryteriów oceny – postrzegalność, funkcjonalność, zrozumiałość oraz solidność. Warto zasygnalizować tę kwestię, bo wydaje nam się ważnym aspektem dla osób/jednostek, które rozważają projektowanie i wdrażanie narzędzi SI. 

 

SI vs. człowiek

Zadaniem sztucznej inteligencji, bazującej na algorytmach, maszynowym uczeniu się, rozpoznawaniu obiektów etc. jest wspieranie człowieka w organizowaniu, wyszukiwaniu i dostępie do informacji, optymalizacja jego pracy, inspiracja czy stanowienie punktu wyjścia do poszukiwań. Jednak to człowiek – jak zaznaczyła Anna Pietruszka w wystąpieniu Definiowanie strategii AI: jak skutecznie budować modele biznesowe w oparciu o AI wprowadza wiedzę, wiedzę ekspercką, umiejętności i kompetencje (takie jak np. umiejętność weryfikacji, redukcję przekłamań, szumów informacyjnych, krytyczne myślenie). Człowiek również wprowadza do SI odpowiedzialność, sprawstwo i działanie.  

 

Uczestniczki konferencji: Marta Stąporek, Gabriela Wielgus, Agnieszka Kleszcz-Rusek
Program konferencji AIDA4

 

_________
Photo by Igor Omilaev on Unsplash

Cookie1 Cookie2
Nasze serwisy wykorzystują ciasteczka (cookies). Korzystając z nich wyrażasz zgodę na używanie cookies zgodnie z aktualnymi ustawieniami Twojej przeglądarki stron WWW.
Czytaj więcej