Co naprawdę liczy się w AI
ok. 7 minut czytania – polub, linkuj, komentuj!
Odkąd pracuję wykorzystując oprogramowanie wspierane przez sztuczną inteligencję, to bardzo wiele moich rozmów z klientami, odbiorcami czy tak zwaną branżą schodzi na następujące tematy:
- Jakiego programu użyłem, aby uzyskać ten efekt?
- Ile to kosztowało?
- Czy testowałem już Sora?
Ogólnie wiadomo, narzędziowiec to najstarszy zawód świata, dlatego od czasu jaskini nie możemy przestać polować na coraz to nowsze i lepsze dzidy. “Dzidą” kilkudziesięciu ostatnich miesięcy jest oczywiście AI. Ja jednak, czym dłużej pracuję nad tematem, tym bardziej jestem przekonany, że narzędzia, których tak pragniemy, nie są istotą tej rewolucji.
To, że rewolucja ma miejsce, usłyszeli już pewnie wszyscy, więc nie będę się powtarzał i pozostawię ten akapit praktycznie pusty, ale silnie naładowany retorycznie.
Oprócz pracy z AI, testuję też rozwiązania dostępne na rynku i analizuję je pod kątem zastosowania w biznesie i edukacji. Staram się też opracowywać realnie działające metody i aktywności, więc mam sporo doświadczeń, aby bronić swojej tezy za pomocą argumentów
Jak wygląda AI (i dlaczego to złudzenie)?
Zacznijmy od tego, że nie ma czegoś takiego, jak narzędzia AI. To pewien skrót, który naraża nas na błąd poznawczy, jakoby sztuczna inteligencja była jakimś odrębnym bytem. Owszem, technologia jest istniejąca, definiowalna, możliwa do sklasyfikowania. Nie ma wątpliwości, że z ontologicznego punktu widzenia AI istnieje. W czym problem?
W tym, żę tak naprawdę uruchamiając ChatGPT, Midjourney, HeyGen czy inne z setek narzędzi nie korzystamy ze sztucznej inteligencji, ale z oprogramowania, które wspiera się AI. Wykonuje pewne czynności nieporównywalnie lepiej, niż dotychczas robił to człowiek czy komputer, ale to tylko narzędzie. To taki podtlenek azotu dla naszych silników. Spektakularny efekt, ale i przyczynek do wiecznego wyścigu technologii.
Wiele osób nie zdaje sobie z tego sprawy, ale sztuczną inteligencję znajdziemy też w automatycznym odkurzaczu czy czujnikach parkowania. Jest ona co prawda w zasadzie reaktywna i opiera się o wyuczone wcześniej, dosyć proste mechanizmy, ale jednak symuluje działanie ludzkiego mózgu, więc spełnia tę uproszczoną definicję. Na nas oczywiście największe wrażenie robi sztuczna inteligencja generatywna, bo oto powstaje coś prawie z niczego. Pamiętajmy jednak, że w praktyce całość może wyglądać tak:
Na samej górze mamy aplikacje, które to widzimy najlepiej i które definiują nam niesłusznie całe zjawisko AI. Znacznie większe znaczenie ma model AI, choć jest już nieco pod poziomem wody. ChatGPT nie jest taki dobry dlatego, że jest jakimś wybitnym programem, ale dlatego, że opiera się o model Generative pre-trained transformer 4 (GPT-4), jeden z największych i najlepiej dopracowanych tzw. dużych modeli językowych (LLM). To, co naprawdę istotne w AI schowane jest pod powierzchnią i dla większości z nas niewidoczne. Stąd analogia do góry lodowej. Nie widzimy przy tym też trudu nakładów finansowych potrzebnych do stworzenia takiego modelu. Z modelu GPT-4 korzystają setki aplikacji, ale to nie oznacza, że ich twórcy sami z siebie mają jakiś większy kapitał w zakresie sztucznej inteligencji. Bez modelu ich biznesy upadają z dnia na dzień. A modeli jest niewiele, bo nauczyć komputer tak dużo i tak dobrze jest cholernie trudne, czasochłonne i drogie.
Co zatem się liczy w AI (i dlaczego nie narzędzia)?
Ponad tym wszystkim są rzeczy dużo ważniejsze, które staramy się rozwijać jako grupa edukatorów, programistów, metodyków i badaczy. To cztery główne perspektywy, które musimy opanować jako społeczeństwo bez względu na narzędzia, jakimi będziemy się posługiwali:
- Etyka
- Bezpieczeństwo
- Jakość
- Legalność
Obecnie w zasadzie mało kto zadaje sobie pytania związane z tymi perspektywami, może z wyjątkiem jakości, ale nie zawsze rozumianej tak, jak trzeba.
Mój numer jeden to etyka korzystania z narzędzi wspieranych przez AI. Dawno nie mieliśmy aż takiego wyzwania w tej materii. Tymczasem sztuczna inteligencja daje twórcom ogromne pole do popisu, i to nie zawsze dobrze. Spójrzmy na deepfake, czyli ogólnie rzecz ujmując, technologię, która pozwala na wykorzystanie wizerunku prawdziwych ludzi w sztucznie wykreowanych sytuacjach. Jakość niektórych prac jest tak duża, że trudno jest odróżnić prawdę od mistyfikacji. Czasem są to śmieszne filmiki z politykami, a innym razem… dziecięca pornografia. Mogą to być ciekawe eksperymenty edukacyjne i symulacje, ale też nadużycia i przestępstwa.
Bezpieczeństwo, a także legalnosć można rozumieć bardzo szeroko. Karmimy modele swoimi danymi, często nieświadomi tego, że modele te też muszą się uczyć i rozwijać. Jest to jeden z dylematów europejskiej debaty to regulacjach AI (tzw. EU AI Act, który będzie rewolucją podobną do RODO). Dylemat brzmi: czy regulować prewencyjnie wszelkie możliwe odstępstwa od bezpieczeństwa, licząc na to, że zareagujemy w razie problemów, których i tak teraz nie potrafimy skutecznie przewidzieć czy - odwrotnie - naszym zadaniem jest opracować możliwie spójne zabezpieczenia, ale ryzykować, że europejskie startupy staną się przez to niekonkurencyjne dla tych pochodzących z rynków mniej regulowanych. Doszliśmy do pewnego konsensusu dzieląc działania AI na cztery grupy ryzyka, od totalnie nieakceptowalnych po takie, których nawet nie zamierzamy monitorować.
Jakość AI to nie tyle oczekiwanie na to, aż dany model i oprogramowanie pokona kolejną barierę jakości i realizmu. To przede wszystkim dbanie o to czy to, co dostarczamy jako edukatorzy nie stanie się masową papką. W pewnych środowiskach już tak się dzieje. Stworzenie kursu online opartego wyłącznie o AI kosztuje mniej, niż takiego z udziałem człowieka, nawet niezbyt mądrego. Niektóre platformy już teraz obiecują, że wystarczy wpisać parę haseł kluczowych, a z drugiej strony maszyny “wypadnie” nam gotowy materiał edukacyjny, który wystarczy już tylko umieścić gdzie trzeba. W tej chwili jakość jest dyskusyjna, ale oczywiście wszystko przed nami. Ale czy naprawdę trzeba być jasnowidzem, żeby domyślić się, że to bullshit?
AI zniknie szybciej, niż nam się wydaje
Nie twierdzę, że AI przeminie jak moda (np. telewizory 3D - pamięta ktoś jeszcze?), albo schowa się w pewnej niszy (np. VR, która to technologia wciąż nie może wyjść poza swoje własne ograniczenia i nie nadaje się do masowego nauczania). Twierdzę za to, że prędzej czy później “AI” w każdej prawie platformie czy aplikacji stanie się czymś oczywistym. Po prostu, komputery będą nas jeszcze lepiej wspierać w myśleniu i w wykonywaniu pewnych zadań. My zaś musimy umieć się posługiwać każdą technologią ponad nią samą. Bez względu na aplikacje, platformy, ficzery-bajery, który się dobrze klikają na mediach społecznościowych, musisz jako edukator mieć konkretny kręgosłup, który będzie oparty o pryncypia naprawdę ważne dla nas, jako ludzi uczących i nauczających.
Piotr Maczuga – pisze, nagrywa, szkoli i występuje publicznie, przybliżając temat nowych technologii w edukacji dorosłych. Na co dzień produkuje treści edukacyjne i cyfrowe eventy oraz buduje i modernizuje studia multimedialne. Współzałożyciel Fundacji Digital Creators.
Interesują Cię nowe technologie w edukacji osób dorosłych? Szukasz inspiracji, sprawdzonych metod prowadzenia szkoleń, narzędzi trenerskich i niestandardowych form? Tutaj zebraliśmy dla Ciebie wszystkie artykuły na ten temat dostępne na polskim EPALE! |
---|
Zobacz także:
Erasmus+: wartość dodana w edukacji czy wygodny model biznesowy?
Umowy autorskie z podwykonawcami. O co musisz zadbać?
Monopole czyli o ochronie pracy naszego intelektu trochę inaczej
Komentarz
dzida
Wspomniana "dzida" jest właśnie tylko narzędziem, ktoś nią włada. Każdy efekt WOW przemija, kto zaczynał wypowiedź od "wpisałem/am w Google" teraz pyta GPT. Jaka część AI stanie się naszą rzeczywistością zobaczymy, bo to, że zostanie to fakt.
Może kiedyś napis przy szkoleniu "made by human" będzie certyfikatem edukatora rzemieślnika, choć z drugiej strony AI jest również made by human...i co teraz?
- Zaloguj lub zarejestruj się aby dodawać komentarze
Kilka dni temu zostały…
Kilka dni temu zostały przyjęte europejskie regulacje dotyczące sztucznej inteligencji. Obszerniej mówi o tym Tomasz Rożek z Nauka To Lubię https://www.youtube.com/watch?v=HEhBpLMJDf0. Piotrze, jestem ciekaw Twojego komentarza w tej sprawie. Cenzura czy bezpieczeństwo? A może uzasadnienie dla biurokratyzacji kolejnej dziedziny życia. Wątków zresztą jest więcej.
- Zaloguj lub zarejestruj się aby dodawać komentarze
Dzięki, że zwróciłeś na to…
Dzięki, że zwróciłeś na to uwagę. Śledzę AI Act od wielu miesięcy i myślałem, że przebije się przez głosowania dopiero latem, a tu niespodzianka ;-). Osobiście jestem raczej za, niż przeciw. Rozumiem, że duże regulacje sprawiają, że startupy z Europy nie są konkurencyjne z tymi azjatyckimi, ale obecnie przegłosowane przepisy to i tak jest duży kompromis. Były założenia dużo bardziej restrykcyjne i dużo mniej. W końcu się jakoś dogadali. Np. Francja czy Niemcy lobbowali za stosunkowo niskim poziomem prewencji, aby nie zabijać kreatywności "na wszelki wypadek". Ja się cieszę, że w ogóle jakieś regulacje są. Myślę, że na ten moment nie ma konkretów. Pamiętam, jak wprowadzano RODO. W każdym kraju podchodzono do tego inaczej, a rok czy dwa po wprowadzeniu jeszcze to się dodatkowo przeformowało. Ogólnie jednak uważam, że nie możemy tego pozostawić bez regulacji, bo to zbyt duża technologia.
- Zaloguj lub zarejestruj się aby dodawać komentarze
To, czego obawiam się…
To, czego obawiam się najbardziej, to upowszechnienia edukacyjnej "papki". Bardzo dobrze to już widać w "dziennikarstwie" - pseudo informacjach w portalach, wtórnych, bezwartościowych treści, które wabią nas clickbajtowymi tytułami, nie dając nic w zamian, kradnąc nasz czas. Myślę, że dla nas, społeczności edukatorów Epale, to doskonała okazja, aby się wyróżnić i publikować materiały i teksty oparte o nasze doświadczenia edukacyjne. Opisując własne "kejsy", doświadczenia, błędy i wnioski, dajemy to, czego żadne narzędzie AI nie wygeneruje. To jest właśnie jeden z wymiarów dbania o kręgosłup i pryncypia.