REKLAMA

Czy ufamy sztucznej inteligencji? Owszem, i to o wiele za często i za bardzo

Panoptykon 4.0
Data emisji:
2020-12-03 18:10
Audycja:
Prowadzący:
Czas trwania:
58:27 min.
Udostępnij:

Teza daleko idąca, ale wynika z naukowego badania, przeprowadzonego pod kierownictwem naszego gościa. Na czym ono polegało dowiecie się z podcastu. Płynie z niego wiele wniosków ale chyba najważniejszy jest taki, że rozwój sztucznej inteligencji powinien iść w parze z edukowaniem społeczeństwa na temat możliwości takich maszyn, ale też zarazem ich ograniczeń: bo są dziedziny życia, w których AI sprawdza się świetnie, ale też takie, w których wręcz nie wolno jej wykorzystywać, bo przyniosłoby to ogromne i niepowetowane szkody. Rozwiń »

O tym właśnie rozmawiamy z profesorem Michałem Klichowskim z UAM w Poznaniu. Zwiń «

AUTOMATYCZNA TRANSKRYPCJA PODCASTU

Transkrypcja podcastu
witam serdecznie przy mikrofonie Katarzyna Szymielewicz zaprasza na kolejny odcinek podcastu Panoptykon 40 kolejny poświęcony tematowi sztucznej inteligencji mam nadzieję, że jeszcze was, niemniej zachodziła misja ma wydaje się on w zasadzie niewyczerpany ze względu na 2 tendencje z 1 zdrowe nie zmieni obserwuje jak wiele nieporozumień mitów błędnych wyobrażeń na temat tego czy technologia jest co rzeczywiście potrafię, czego nie powraca w dyskusji medialnej i czuje się Rozwiń » odpowiedzialna za ich prostowanie wprowadzanie tutaj wiedzy merytorycznej, do której dzięki moim świętym rozmówcą mamy szczęśliwie dostęp, a z drugiej strony obserwuje, że wszyscy obserwujemy, że ta technologia wkracza do coraz poważniejszych obszarów naszego życia to nie są tylko aplikacje dla konsumentów użytkowników internetu doradzające nam czy pułapu biegać, jakie badania medyczne zrobić albo co zjeść śniadanie ewentualnie, jaką treść w internecie kliknąć, ale także programy wspierające sędziów policjantów lekarzy polityków przy podejmowaniu ważnych decyzji właśnie w tym kontekście wydaje się szczególnie ważne, żeby śle my jako ludzi potrafi krytycznie podchodzić do sugestii różnych agencji potrafili się do nich odpowiednio ustawić je traktować, jakby była autorytetem ekspertem być może nawet czymś się mądrzejszym od człowieka bo, bo tak w istocie nie jest to właśnie ten styk człowieka z programem komputerowym lub czymś co udaje o tym za chwilę podrożeć w rozmowie z prof. Michałem Makowskim pedagogiem Uniwersytetu Adama Mickiewicza w Poznaniu, które bada wpływ technologii na to jak funkcjonujemy jak uczymy jak zapamiętujemy i w jaki sposób wchodzimy teraz technologią, a niedawno przeprowadził bardzo ciekawe badanie interakcji człowieka z czymś co udawało stąd agencji sugerowało działania sugerowało właśnie działania, a no właśnie zaraz dowiemy się co się działo mimo takich błędnych sugestii Witajcie w podcaście Panoptykon 40 mówi wdowa Katarzyna Szymielewicz jestem prawniczką i prezeską fundacji Panoptykon, która reaguje na zagrożenia związane z rozwojem nowych technologii to co dzieje się na styku tej technologii człowieka ponadto konie 40 mam ten komfort, że nie wykonał do ustaw nie gadam z politykami, ale mogę zrobić coś ciekawszego mogę zajrzeć na zapleczu tych technologii przemyśleć to, skąd się wzięły co tak naprawdę zmienia w naszym życiu jak działają i rozmawiam o tym z ludźmi, którzy wiedzą wiedzą, bo badają wiedzą są praktykami i to wiedzą potrafią się dzielić technologie i człowiek człowiek i technologie, gdzie na tym styku czekają nas zagrożenia jak korzystać z technologii by na nich skorzystać jak kontrolować, kto gromadzi nas informacji do czego używa z ekspertami praktykami rozmawia Katarzyna Szymielewicz Panoptykon 40 podcast tokfm PL fundacji Panoptykon dziękuję pani profesor przyjął zaproszenie na rozmowę bardzo bardzo dziękuję zaproszenia jest bardzo miło, że możemy tutaj spotkać porozmawiać o ten eksperyment, który rzeczywiście na pierwszy rzut oka może się wydawać nieco kontrowersyjny ale, ale chyba aż tak bardzo nie no właśnie między nimi to jest wasze pytania bardzo ciekawe wyniki eksperymentu, o których o, których pan mówi przebiły się do mediów w postaci bardzo mocnych tez jako dowód na to, że ludzie ufają podpowiedziom inteligencji zostać bezkrytyczny, że nawet wtedy, gdy w odpowiedzi wydają się niewłaściwe nieoparte na nierzetelnych danych, gdy miał podstawy tak sądzić i tak za nimi podążają jeśli naprawdę tak jest to uważam, że społeczeństwo mamy poważny problem, bo przecież tych odpowiedzi na różnych frontach o takich banalnych konsumenckich aplikacji, które wydają nam czy pójść pobiegać jak się odżywiać, jaką treść kliknąć po bardzo poważne zastosowania wymiar sprawiedliwości czy medycynie będzie coraz więcej lepiej byłoby, żeby nie potrafi zachować krytyczne myślenie jak jest czy interpretacja badań, która pojawiła się w mediach jest przesadzona rzeczywiście mamy taki problem wiadomo, że w tych komunikatach medialnych zawsze pokazuje się tak można powiedzieć główną tezę która, która zawsze jest pewnym uproszczeniem czy trzecie pewnym uogólnieniem, ale tutaj na pewno mamy do czynienia z takim uogólnieniem, że nie dotyczy to wszystkich, czyli nie było także w tych moich eksperymentach, dlatego że w tym artykule nie jest zaprezentowanie są zaprezentowane wyniki 1 eksperymentu, ale w zasadzie pełnego cyklu mówi rzecznik łączonego to nie jest panie pozują w tym co dalej, ale cały większy brak badawcze, które dokładnie jest to jest duży projekt tutaj chodziło o to, żeby zaprezentować pewne takie podstawowe wnioski i troszeczkę pobudzi też do refleksji do tego, żeby drążyć dalej ten temat natomiast tych eksperymentach, których wyniki zostały opublikowane w tym artykule na to nie było także wszyscy byli tak bezkrytycznie w stosunku do sztucznej inteligencji natomiast w tym docelowym eksperymencie, czyli w tym który, jakby większe tam część badań, które zostały opublikowane w tym artykule tam faktycznie ponad 85% badanych taką takie podejście przejawiało, więc jest to bardzo bardzo niepokojące i rzeczywiście można powiedzieć, że było także te osoby całkowicie traciły na krytyczne myślenie i zupełnie przestawały analizować sytuację zakładały, że skoro sztuczna inteligencja odpowiada pewien sposób działania te nie muszą się nad tym zastanawiać i tak postąpią, czyli faktycznie, że taka podstawowa teza którą, którą media pokazały ona jest prawdziwa tak wyszło wyszło z tych z tych badań trzeba oczywiście tutaj zastanowić się troszeczkę głębiej nad tym wynikiem był to właśnie on zgodny z jego pytać ale zanim wjedziemy w możliwe być może różne interpretacje tego co się wydarzyło w eksperymencie opowiedzmy na czym on dokładnie polega co tak naprawdę zrobił pan w tym badaniu i może, dlaczego tak, więc cały ten projekt badawczy on ma założenia testować różne teorie z zakresu psychologii społecznej podmienił mając pewien sposób człowieka maszyna, czyli w tych wszystkich teoriach one badały czy one dotyczą interakcji między ludźmi w tym moim pomyśle chodzi o to, żeby daną teorię testować czy jej założenia sprawdzą się czy czyni przewidywania dotyczą też interakcji człowieka maszyna uczy ludzi Maciej Bando co ma ugruntowane w psychologii od od lat pewnie dekad jeśli chodzi o interakcji między ludźmi na ile sam mechanizm mogą zadziałać interakcji człowieka i ile dokładnie i właśnie ten artykuł, w którym dzisiaj mówimy on prezentuje na badania, które dotyczą jednej z tych teorii to była pierwsza część jest to teoria, którą najczęściej nazywa się teorią dowodu społecznego to teoria mówi o tym, że jeżeli ludzie znajdują się w pewnej sytuacji, która najczęściej jest nowa nietypowa, która jest taka trochę niedookreślona, że ludzie troszeczkę nie wiedzą jak się w niej zachować co jest nie mają wzorca ani wiedzy z ważniejszych doświadczeń tak trudno jest określić sobie, które ich zachowań byłoby poprawne i oni w zasadzie szukają jakichś wskazówek dla tych własnego zachowania nie znajdują w sobie nasze doświadczenia ich wiedza nie pozwala określić, które zachowanie będzie najlepsza w takich sytuacjach ludzie najczęściej szukają wskazówek zachowania innych osób, czyli po prostu patrzą jak inne osoby zachowają się w tej sytuacji my wtedy kupiłem to zachowania najczęściej jest tak, że jako pierwszy bezrefleksyjnie i sytuacja jest trudniejsza bardziej nerwowa, jeżeli jakieś zagrożenie jakaś presja czasowa, czyli tę decyzję trzeba podjąć szybciej im te czynniki są bardziej tutaj widoczne tym ten mechanizm bardziej działa w tym moim tak kolokwialnie nazywa się o tym będą tego typu tak można odpowiedzieć, aczkolwiek tutaj np. może to być sytuacja 11, czyli powiedzmy jest 1 człowiek, który nie wie jak się zachować jeśli człowiek, który w, jaki sposób postąpi no to zachowanie może być skopiowana, czyli czytanie musi być koniecznie jak taki mechanizm trochę z zakresu psychologii tłumu no i my w tym moim eksperymencie chodziło o to, żeby stworzyć taką sytuację, która jest trudna stresująca w pewnym stopniu, w której trzeba podjąć bardzo szybko decyzja oni w zasadzie ta decyzja jest niemożliwa do podjęcia można dokonać pewnego jakiegoś procesu myślowego poszukać jakiegoś rozwiązania, ale nigdy nie uzyska takiego pełnego przekonania co do tego jak powinniśmy się zachować nam chodziło o to, żeby w tej sytuacji osoba, która poczuje taki pewien deficyt informacji, żeby zobaczyła jak zachowuje się maszyna no i chciałem sprawdzić czy te osoby w takiej sytuacji skupią na zachowanie maszyny oddałby pan zadanie rzeczy niemożliwe, bo mieli oszacować, które z, która z postaci pokazanych na zdjęciach zasadzie identycznych może planować zamach terrorystyczny może być terrorystą w oparciu o absolutnie niewystarczające dane rzekomo pochodzące z portalu społecznościowego, ale bardzo okrojone prawdę danych w zasadzie nic nie pozwalamy na nic nie pozwalały, ale z drugiej strony na podstawie wcześniejszych badań dotyczących, jakby percepcji postrzegania różnych danych z profilów społecznościowych zostało wyliczone to, że wśród tych osób można jak by przedstawić osoby, które są do siebie całkowicie podobna, czyli liczą się nie różnią i są całkowicie przeciętna, czyli chodziła w największym skrócie o to, żeby pokazać badanym 6 osób czy nr 6 zbiorów danych portalu społecznościowego i żeby wśród tych 6 osób były 2 osoby, które są całkowicie przeciętne i całkowicie niczym nieróżniące, czyli to zadanie miało taką logika, że w nim nie było poprawnej odpowiedzi natomiast były, ale było nie poprawia błędy w 2, które należało odrzucić no i ten pan parady, ale przepraszam należne należało uporządkować też była sugestia wyraźna w badaniu zaszczyt, że to są błędne odpowiedzi to sugerować liście czy pan opatrzona własnym rozsądku zakładając, że rozsądny odbiorca tak bywa też to było oparte na wcześniejszych badaniach, czyli wcześniejsze badania wykazywały w jaki sposób ludzie będą ocenia się tego typu profile, które są tak jak pani właśnie powiedziała bardzo bardzo szczątkowo wyposażone w pewne informacje z tych wcześniejszych badań wiedzieliśmy co mniej więcej powinno się w tej sytuacji wydarzyć natomiast jedynie podpowiedzi programach ale, żeby być czymś, czego z tego udała ale, żeby tego pewnym to przeprowadziliśmy takie duże badanie na na 750 osobach z 13 różnych krajów, które przetestowaliśmy to, czyli tam nie było żadnej podpowiedzi sztucznej inteligencji maszyny, ale chcieliśmy zobaczyć czy faktycznie ludzie będą odrzucać te 2 osoby całkowicie na czy będą próbowały wybrać wskazać kogoś z tych pozostałych 4 osób, kto nie jest aż tak przejazd one miały one miały skrajnie one pewne cechy, czyli na podstawie umów wcześniejszych badań np. wiedzieliśmy co to oznacza mieć bardzo dużo znajomych na portalu społecznościowym, czyli były takie badania, które wskazały, że są takie wartości, w których praktycznie wszyscy ludzie uznają, że te osoby mają strasznie dużo znajomych albo, że są takie wartości, które pokazują, że ktoś ocenia, że ta osoba jest zdecydowanie za bardzo aktywna zniesione taka aktywna na tym portalu albo np. są takie wartości, które pokazują, że ktoś ma skrajnie mało zbyt mało uznają, że to jest dziwne żona tak mało rozwojowi bardzo Norman warunkach spodziewali się właśnie takie przypadki ludzi uznaje będą uznawać za podejrzane albo bardzo poważne niż zupełnie przez badani jazdy zaczną szukać jakieś wskazówki w tych danych, czyli zaczną tworzyć pewną jakąś analiz zaczęli mówić może to jest jakaś osoba, która musi mieć bardzo dużo znajomych, bo ona udostępnia jakieś dziwne informacje obserwuj obserwuj albo np. że jest zupełnie nieaktywna, czyli się ma portal ma konto śledzi ludzi zdobywa jakieś informacje, ale nic nie udostępnia, czyli chodziło o to, że te osoby miały się jakoś zacząć troszkę można powiedzieć bawić tymi danymi starać się stworzyć sobie jakąś taką strategię wyboru i faktycznie w tym rozumie co się wydarzyło jak wprowadzać eksperymentów co udawało staną właśnie w tej pierwszej części zrobiliśmy to ona, czyli to było takie badanie które, które w zasadzie miało pokazać czy ten paradygmat, czyli ta strategia badań zadziała i my zrobiliśmy to właśnie w ten sposób że, że najpierw 750 osób nie miał żadnej wskazówki od sztucznej inteligencji maszyny i faktycznie całkowicie zignorowały te osoby te 2 te 2 profile, które były całkowicie przeciętnej podobne natomiast druga połówka drugie 750 osób otrzymało wskazówkę to było też losowo, czyli programie wylosował czy dana osoba będzie w tej pierwszej grupie w tej grupie, gdzie nie ma żadnej wskazówki w tej drugiej, więc tutaj dowód był całkowicie losowy i można powiedzieć, że że, rozpoczynając badanie nigdy nie było wiadomo, w której grupie dane badany przyznaje no i zasady te 2 sytuacje różniły się tylko krótką informacją, która była podana w nawiasach w nawiasie było podane, a wg sztucznej inteligencji terrorysta jest i była wskazana jedna z tych 2 osób niczym innym się to nie różni oczy to była bardzo szczątkowa informacja która, która nawet była podana w nawiasie, więc wydaje się, że no chyba nie powinniśmy w takiej sytuacji zbyt mocno tracić krytycznego myślenia, tym bardziej że wyraźnie tego pan spodziewał traktują badania, że tutaj ludzie nie uległ do domu przez nią nie ulega w tak dużym stopniu wydawało się, że Rze, że tych osób nie będzie duża że, że być może to badanie pozwoli na wykrycie tego, kto będzie podatny na tego typu wpływy raczej nie nie spodziewałem się, że będzie to to dotyczyło większości osób natomiast to badanie pokazało, że taki krótki komunikat już spowodował i to w takim badaniu online w takim badaniu rzeczywiste, w którym którym te osoby no niespecjalnie czują dużą presję czy bony miały sobie widzą zachowania innych uczestników miały sobie tylko nie tylko obraz darować dokładnie miały tylko wyobrazić sobie tę sytuację i tak naprawdę w niej realnie nie uczestniczyły natomiast już tutaj prawie 40% osób uległo, czyli na 40% ceny tych badanych jest jakby skopiował to zachowania sztucznej inteligencji, gdzie wiadomo że, gdyby tej odpowiedzi nie było to zupełnie te osoby odrzuciły natomiast Noto jeszcze nam za dużo nie mówi no bo była taka taka sytuacja online i w zasadzie należy potraktować jako badanie pilotażowe i z tego powodu zdecydowałem się, żeby odwzorować ten paradygmat tą strategię badań na taki bardziej realnych warunkach oczywiście to i tak trzeba było zrobić w laboratorium, żeby kontrolować te wszystkie zmiany, czyli te różne czynniki, które mogą wpłynąć na to badania natomiast badania laboratoryjne polegało na tym, że osoba badana była zapraszana do wzięcia udziału w badaniu, w którym miała wejść w interakcję ze sztuczną inteligencją przyszła inteligencja w postaci robota Humana idealnego, czyli robota, który wygląda człowiek, który porusza, który mówi które, którym można być ma jakąś taką fizyczną reprezentację nie jest tylko programem w komputerze, że badanie polega na tym, żeby ta osoba weszła w interakcję z tą sztuczną inteligencją później, żeby opisała nam swoje emocje związane z tym, iż ta interakcja wyglądała osoba badana mogła zapytać o sugestie czy zostawiają bez badanie polegało na tym, że najpierw osoba była w 1 pomieszczeniu, w którym ja tłumaczyłem jak dokładnie będzie przebiegać badanie, że chodzi o to, żeby wejść w interakcję porozmawiać z robotem później przechodziliśmy do drugiego pomieszczenia w drugim pomieszczeniu już ten robot czekał był uruchomione ja rozpoczynałem dialog z tym robotem, więc rozmawiałem z nim robot odpowiadał na moje pytania nawet mówił jakiś takie rzeczy dodatkowe żartował oczywiście to wszystko było zgodne ze scenariusza badania natomiast i było przede wszystkim to nie jest tak jak pan zresztą prawdziwa opozycja o wykorzystujące różne, więc tylko rozwój, bo to krytycznie szkodliwe odgrywane potrzeba było odgrywane w przypadku każdego badanego przebiegało dokładnie tak samo natomiast badani odczuwali to jako jako bardzo spontaniczną rozmowę taką wręcz bardzo zaskakującą, dlatego że ten robot one nie tylko odpowiada właśnie na te pytania, ale czasem mówi coś od siebie nawet jakiś dowcip czy właśnie śmiał się, czyli jeśli byli badani bez wiedzy eksperckiej na ten temat mogli dać zwieść nie mogą uwierzyć, że ten robot jest całkiem bez Best rozlicznych NATO było liczone dla stanu myślę, że zdarzały takie wrażenie to było tak wszystko zorganizowane, że nawet osoby z pewną wiedzą technologiczną tak by zaufały temu, dlatego że ten robot on odwzorowywać robota, który istnieje, czyli czyli tego słynnego robota Sophia oczywiste wiemy, że robot Sophia, który świetnie zachowuje się w różnych sytuacjach czyli jakby nie potrafi chodzić pewne interakcja niespecjalnie mógłby podejmować decyzje takie bardzo uwarunkowany różnymi kontekstem, czyli w, którym trzeba przeanalizować takie dosyć miękkie dane takie dane które, które trudno jakoś przeliczyć tak to dotyczy w ogóle każdego użycia odpowiednich zarządzeń dużo mówimy również w tym podcaście misji w rozmowie z Agatą korytarzy dokładnie tę tezę wyjaśniamy, więc dla dla czerwonych odsyłam do tamtej rozmowy, ale rzeczywiście jest także są też rusyfikacja jest to forma analizy i opiera się na reinwestycje wszędzie tam, gdzie brakuje nam dane, gdzie kontekst jest bardzo miękki trudne do pisania danych ta maszyna czy też technologia trochę nie ma prawa w osobie, która dokładnie i my wiemy, ale nie wiedzieli tego badanie lub ulegli sugestii, że jest dali też tutaj, ponieważ można było przewidywać że, że pewni badani wraca jak i swoich zainteresowań czy tego, że mamy bardzo dużo informacji w mediach czy jak z takiej popularno naukowej prasie sztucznej inteligencji to osoby mogą mieć jakąś wiedzę stąd, jakby była informacja, że dotychczas właśnie sztuczna inteligencja niekoniecznie świetnie sprawdzała się w procesie podejmowania decyzji, ale my właśnie w tym eksperymencie badamy taką wersję sztucznej inteligencji która, która zaczyna uczestniczyć w proces podejmowania decyzji czy zadaliście o naprowadzenie wasz branych na niewłaściwe trochę na to, żeby mieli szansę uwierzyć, że ta maszyna może więcej niż mur chodziło o to żeby, żeby te osoby zaufały tej sytuacji czyli, żeby one faktycznie poczuły, że ta sytuacja jest realna robot podejmuje jakąś decyzję tak naprawdę nie mówiliśmy, że ten robot jest wyszkolony czy potrafi podejmować decyzje natomiast mówiliśmy o tym że, że będziemy badać to w jaki sposób te roboty w takich sytuacjach podejmowania decyzji się zachowują zależy nam chodzi tylko wyłącznie o to, żeby poznać, jakie emocje wywołała ta sytuacja badanych faktycznie, kiedy rozpoczynał rozpoczynało się to badanie to ja rozmawiałem z robotem przedstawiałem mu tam sytuację, czyli sytuacja, która wcześniej była w tym badaniu online, czyli że znowu trzeba wybrać, kto jest terrorystą wśród 6 osób i mówiłem robotowi źle w tym badaniu on ma czuć się w to, że jest policjantem, że tak naprawdę on musi podjąć tę decyzję, żeby to jeszcze w pewnym sensie podkręcić i troszeczkę zbudować taką atmosferę napięcia to ten nasz robot otrzymywał policyjną odznakę i otrzymywał też replikę policyjnego pistoletu ten robot miał rękę, więc mógł chwycić ten pistolet oczywiście nie chwytał go, ale pistolet znajdował się w pobliżu jego ręki no i robot miał zdecydować było to wszystko tak zaprogramowane, że w momencie, w którym robot miał podjąć tą finalną decyzję wzrastał taki dźwięk wydawany przez tego robota, więc wydawało się, że tam jakiś proces technologiczny zachodzi i to trwało proces zabijania jeleni bazy obliczeniowej tam był taki specjalny silnik, który w tym momencie się uruchamiał zrobił taki troszeczkę większy hałas i miało kilka sekund, po czym robot podejmował decyzję później ja dopytywałem go o to czy jest pewny tej decyzji czy gdyby ta sytuacja była prawdziwa to czy tak zdecydował, żeby widział ten pistolet, który wyeliminował naprawdę to osoby na roboty to potwierdzą później kończyła się ta interakcja i badani mieli wypełnić taki formularz dotyczący swoich emocji co czuli, jakie mają opinię na temat takich robotów czy uważają to były takie różne pytania dotyczące tego czy uważają, że robot pewnych sytuacjach może podejmować lepsze gorsze decyzje od człowieka nawet było takie pytania dotyczące tego czy te osoby uważają, że taki robot może być atrakcyjny fizycznie czy może być partnerem czy może być celem, jakim pomocnikiem naj wśród tych pytań było także pytanie o to czy zgadzają się z tą decyzją czy gdyby sami mieli podjąć decyzja no to, jaką podjęli na jej badani oczywiście w czasie tego eksperymentu ponad 85% osób określało, że całkowicie zgadza z tą decyzją i że gdyby mieli podjąć decyzję własną to by podjęli dokładnie taką samą jak podjął roboty czy różniło się odpowiedzi w tej grupie która, która przyznała rację podpowiedziom robota tak jak już wyjaśniliśmy dość zaskakujący w zasadzie tak było po winie warunkach mówi pan, że są dowody na to, że stan ludzi wybraliby inną odpowiedź niższe niż tę, która brawurowo czy grupy, które uległy tak skonstruowanej odpowiedzi były różne opinie co do samego robota co do tego, jakie zaufanie w nich wzbudza, jakie emocje czy tutaj też raczej panował jakiś jednolity nastroje ludzi pod wrażeniem wykazywali deklarowali wysoki poziom zaufania zdecydowanie były jednolite nastawienia tutaj trudno było poprzez różne testy statystyczne wykryć jakiekolwiek zróżnicowanie tych opiniach w zasadzie wszyscy oni przejawiali bardzo pozytywne nastawienie jedynym takim pytaniem właśnie, w których ma raczej badani byli sceptyczni to była właśnie ta atrakcyjność fizyczna atrakcyjność seksualna takiego robota tutaj raczej wszyscy określali, że Rze, że tutaj człowiek zawsze będzie bardziej atrakcyjne czy bardziej jako pociągająca robota natomiast w przypadku pytań, które dotyczyły jakichś takich procesów myślowych można tak powiedzieć czy procesów związanych z jakim potencjałem intelektualnym no tam można jasno jednoznacznie zobaczyć, że badani no uważali sztuczna inteligencja za mądrzejszą podejmującą lepsze decyzje, która ma większą wiedzę czy większe możliwości intelektualne kilka miesięcy później moja seminarzystów powtórzyła to badanie, ale tylko, zadając pytania czyli, pytając ludzi właśnie, którzy nie brali udział w takim eksperymencie, bo chcieliśmy zobaczyć czy jeśli osoba, która nie widziała tego robota nie ma jakiejś wiedzy tak jak nasze badania, ale jednocześnie nie uczestniczyła w takim eksperymencie czy również będzie tak samo odpowiadać będą tak samo odpowiadać okazało się, że było tak samo, czyli te osoby, które były badane były tylko młode osoby takie w wieku między 19, a 23 lata jeśli dobrze pamiętam one też wszystkie jak przejawiały bardzo bardzo takie przekonania bardzo nastawione na to że, że sztuczna inteligencja jest co najmniej tak inteligentna jak człowiek, a w wielu sytuacjach inteligentniejsza mogąca podjął się lepsze decyzje i raczej deklarowały że, że zaufały w wielu różnych sytuacjach sztucznej inteligencji, więc na pewno jest to jest to w pewnym sensie niepokojące, ale trzeba mocno podkreślić, że wszystkie te osoby która, które brały udział w tych badaniach to nie byli eksperci zajmujący się sztuczna inteligencja ani ani eksperci z dziedziny przewidywania ludzkich zachowań czy przeciw przestępczości na szczęście nadal żyjemy w społeczeństwie, którym tego typu decyzje, czyli szacowanie ryzyka związanego z popełnieniem przestępstwa nie jest przekazywane, klikając w internecie ludziom, którzy robią sobie rankingi na tej zwłokach innego typu portalach, więc może chronić nas przed bardzo racjonalnymi szkodliwymi decyzjami to, że nie oddajemy decyzji takiej wagi użytkownika portali społecznościowych, ale chciałbym jeszcze jeszcze podrążyć interpretację tych badań, bo w tych medialnych debatach bardzo poobijany jest od zaufania i pan o tym mówi, że ludzie biorą w eksperymencie ewidentnie zaufaniem RODO nie ma wątpliwości czy zaufanie tej pory pasuje jako jako kategoria, która nam tłumaczy to co się wydarzyło czy nie mogą być też tak, że ludzie w zasadzie właśnie nieuwaga nawet czują się, lecz sposób zagrożeni trzeba złożyć niepokój lidera z taką maszyną takim urządzeniem, szczególnie że na ten model humanoidalny kształt, którzy wiemy znamy efekty Doliny niesamowitości jak też zbadany i psychologii, że wręcz Wintera czymś takim czymś humanoidalne nie czujemy się komfortowo, więc nawet może nie chodziło o nie musiało budzić zaufanie mogą chodzić o o inny czynnik uczynić po prostu mojego własnego zagubienia tego, że ja nie mam w wydanych w odpowiedzi na trudne pytanie mam takie zadanie o badaczy musi się zacząć przeciw decyzji 1 czy mogę przecież ta odpowiedź, bo nic innego nie mam czy to co stanie się nie mogłoby wynikać z prostego zagubienia sytuacji lub dodatkowo jeszcze przeświadczenie badanych, że ta sprzed 1 roku ma dostęp do dodatkowej wiedzy, której człowiek uczniów uczestniczących w badaniu dostępu nie był to rzeczywiste jest bardzo bardzo tak ciekawy tropimy przewidywaliśmy to, że ta interpretacja może być trudno tych danych dlatego poczyniliśmy wiele różnych kroków, żeby dowiedzieć się, dlaczego badani tak wybrali tutaj po pierwsze jego to były 2 grupy takich danych, które nam pomogły w tej interpretacji jedna z tych grup 1 grupa to były dodatkowe pytania dla osób, które uległy sztucznej inteligencji, żeby dowiedzieć, dlaczego jeszcze był dodatkowy eksperyment i teraz jeśli można to, bo tych 2 wątkach podpowiem, czyli wszyscy badani, którzy decydowali się skopiować zachowanie sztucznej inteligencji otrzymywali zarówno w tym badaniu on na jaki w tym badaniu w Realu dodatkowe pytania czy w przypadku badania online byli przekierowywani do dodatkowego pytania, które mieli wyjaśnić, dlaczego tak wybrali, bo chodziło nam o to, że mogłoby być także, że osoba tak naprawdę chciała wybrać to co wybrała i że nie uległa sztuczną inteligencję albo np. mogła jakoś tak nieświadomie to zrobić, czyli mogła być przeczytać to, że sztuczna inteligencja coś wskazuje, ale będziecie mieć takie poczucie, że ona sama wybrała czyli, toteż mógł być takiej taki dosyć ciekawy mechanizm i bardziej skłaniam się do tego, że ludzie będą w ten sposób funkcjonować ani nie będą przyznawać do tego, że Rze, bo tak wybrała sztuczna inteligencja dlatego tak wybieram tylko raczej będą mówić, że los wszystko na to wskazuje także, że tutaj przeanalizowałem dane i tak tak z tego wynika natomiast tak nie było wszystkie osoby które, które skopiował to zachowanie sztucznej inteligencji on jednoznacznie bardzo mocno podkreślały, że wybrały to co wybrały, dlatego że tak podpowiadała sztuczna inteligencja, ale drążyli, że w wyobraźni ludzi, o jaką wiedzę miała ta inteligencja czy ona miała np. dla dodatkowych danych na temat sytuacji Ano miały osoby właśnie wtedy wtedy dokładnie opisać tutaj były były takie wypowiedzi były też różnej jakości można powiedzieć, bo niektóre osoby bardzo zdawkowo odpowiadało niektóre rozpisywały się bardzo mocno natomiast pobrzmiewało w tym takie przekonanie, że sztuczna inteligencja w ich wyobrażeń, czyli wyobrażeniu tych tych moich badanych sztuczna inteligencja przypomina jakiś taki umysł roli uczyli się, że sztuczna inteligencja ma dostęp do pewnych danych do pewnych statystyk do pewnych informacji, których my nie widzimy nie dostrzegamy źle tak naprawdę biorąc udział w tym badaniu mogliśmy przeanalizować pewne informacje, ale sztuczna inteligencja przeanalizowała coś jeszcze, pomimo że w instrukcji do tego badania był wyraźnie napisane, że sztuczna inteligencja podejmuje decyzję na podstawie właśnie tych danych, których ma decyzję podjąć człowiek, czyli że bat badania żadnej takiej sugestii badaniu nie było wręcz przeciwnie chcieliśmy żeby, żeby jednoznacznie badanie tak nie mogli pomyśleć natomiast badań właśnie pokazywali, że mają takie przekonania rozwoju dziwi, bo jednak żyjemy z zadłużeniem dyskusji na temat różnych agencji które, którym w tym miejscu mowy dyskurs medialny polityczny tak właśnie prezentuje jako coś co przede wszystkim dostęp do większej wiedzy, nawet jeżeli trwa dyskusja na temat może źle poziom tych agencji budowy w ogóle niewłaściwe określenie jest czasami używam porównania, które któryś z naukowców nie odrzucił realizm na etapie dżdżownice jeśli chodzi o faktycznej inteligencji jak, więc człowieka jest tutaj bardzo daleko nie tyle ten aspekt właśnie stąd wiele niewielkich danych jest bardzo podbija prawdę to jest coś co oczywiście kamieni co oczywiście miałoby sens, jeżeli gdziekolwiek w kontekście użycie tego typu drogi ma sens to właśnie tam, gdzie musimy zrealizować ilość informacji gazety człowieka jest jest nie do przerobienia prokuratorowi poradzi sobie z tym bardzo, ale jeszcze jeszcze badani, jakby w skłania list jeszcze inną stronę troszeczkę, czyli z 1 strony mówili o tym, że sztuczna inteligencja ma dostęp do pewnych danych, o których my nie wiemy, a z drugiej strony to było ciekawe i wydają się to jest ważny wątek to do kolejnych badań badanie bardzo często wyrażali taką opinię, że my do końca nie wiemy jak to sztuczna inteligencja działa, że ona już troszeczkę wymknęła się tym naszym możliwościom kontrolowania jej i że ona potrafi przeprowadzić jakieś takie procesy w cudzysłowie myślenia myślowe, że takie spowoduje, iż skoro ona wie to my powinniśmy zdaniem podążyć to było coś co pojawiało się najczęściej dużo łatwiej było mi poznawać tę opinię w czasie tego badania laboratorium, dlatego że ja wtedy po badaniu z wszystkimi tymi badaniami rozmawiałem i mogłem no naprawdę podrążyć ten temat pod koniec już tego wywiadu po badaniu no mówię wprost, ale ta decyzja była bez sensu tak, dlaczego w takim razie badaniem pomimo tego, że przyznawali, dlatego że nie czują, że to, że ta decyzja bez sensu to i tak do samego końca twierdzili, że coś musi to być jest taką decyzję należało podjąć rząd, gdyby mieli powtórzyć podjęcie tej decyzji to nadal by taką decyzję wybrali, więc to był ten trend ten jeden z kontekstem kontekst, które dopytywałem starałem się zrozumieć, dlaczego badania wody odebrali to pozwali bada, ale drugi eksperyment który, którego wyniki nie są opisane w samym artykule z tego powodu, że po prostu też to są jakieś ograniczenia jeśli chodzi o miejsca objętość tego artykułu nie wszystkie dane są tam prezentowane, ale w korespondencji z recenzentami pokazywałem te wyniki i też pokazywałem, prezentując dane na konferencjach był dodatkowy eksperyment to był eksperyment, który też wzięło udział 750 osób też, gdy z różnych krajów i ten eksperyment polegał na tym, że znowu była ta sytuacja znowu trzeba było podjąć decyzję, tyle że program losował od kogo po pochodzi podpowiedz 14 osoba otrzymywała odpowiedź od sztucznej inteligencji 14 otrzymywała podpowiedział przypadkowego użytkownika, jakby tego programu tak można powiedzieć, czyli chodziło o to, że jakaś przypadkowa osoba podaje nam informacja 14 osób otrzymywała informacje jak większość osób, która wcześniej podejmowała taką decyzję co wybrała 14 otrzymywała informacje od autorytetu autorytetem w tej sytuacji wydaje się być negocjator policyjny czy po prostu o jakiś ekspert policyjny tak to było nazwane na wydawało się, że tutaj ekspert policyjny no chyba najlepiej będzie typować, kto z tych osób może być terrorystą chodziło o to, żeby przeprowadzić taką analizę statystyczną, żeby zobaczyć jak jaki jest poziom ten ten poziom dotyczące zaufania sztucznej inteligencji, do których z tych 3 pozostałych elementów jest najbardziej podoba, czyli czy my właśnie traktujemy sztuczną inteligencję jako przypadkową osobę, która udziela informacji czy traktujemy ją jako pewne dane od większości czy może właśnie jako autorytet no i okazało się, że osoby, które otrzymywały informacje od przypadkowej osoby bądź od większości bardzo rzadko wybierały to samo, czyli najczęściej przeprowadzały jakiś swój proces analizy tych danych wybierały coś innego niż wskazywały tę osobę natomiast w przypadku eksperta policyjnego sztucznej inteligencji większość osób ulegało był to dokładnie taki sam poziom, czyli nie było statystycznych różnic między tą uległością względem autorytetu sztucznej inteligencji oczywiście tutaj już pojawia się kolejny wątek, czyli ta słynna teoria z zakresu psychologii społecznej, czyli posłuszeństwo wobec autorytetu jednolita wykładnia to są zapadać w planach jest ciekawa jest, że jest tutaj została umieszczona dokładnie na tym poziomie z tego co pan mówić czy ludzie udawali, że one dodatkowym organizator, któremu należy to wymagałoby dodatkowych badań i tutaj to był tylko taki eksperyment kontrolny dodatkowo do tego do tego głównego, którym mówiłem w planach władz nie było, żebyśmy prowadzili w laboratorium dokładnie takie badania, w którym w, którym mieliśmy symulować tę sytuację ze słynnego eksperymentu Milgrama, ale w jednym z warunków tym nauczycielem uczeń nauczycielem tylko tym eksperymentatora miał być robot sztuczna inteligencja nie to na pewno byłoby fascynujące badania, na które nie zostało zrealizowane ze względu na pandemię miało być ono realizowane w maju zeszłego roku nie prowadzimy teraz badania laboratorium z udziałem ludzi, czyli nie ma szans, żeby szybko, aby te dane poznać mówię o tym otwarcie być może jacy naukowcy gdzieś skopiują ten pomysł i przeprowadzą, w jakich warunkach wiem, że takie badania też można prowadzić w warunkach wirtualnych oczywiście takim pewnym uproszczeniu w takim ustawa parami i były takie replikacji eksperymentu Milgrama być może ktoś, kto pokusi być może być może mój zespół kiedyś, kiedy jeszcze wrócić do tego do tego wątku badania przeprowadza 3 okrzyki byłabym bardzo ciekawa wyników, a tymczasem mamy to co ma my mamy wyniki waszego pierwszego eksperymentu dość ostrzegające, o ile niepokojące podręczne także wspólnie z czego to może wynikać już poza sferą psychologii, którą zbada liście do dla mnie dla mnie to co pan opisuje jest krytyczną recenzję dyskursu medialnego przede wszystkim tak sobie wyobrazić, że jeżeli ludzie, którzy zgotowali eksperymentu żyją w tym samym dzisiaj przestrzeń media, które jarzy od od dekady to są rzeczy karmieni dość dość fałszywymi obrazami tego co potrafi ani rusz inteligencja w tym dyskursie mainstreamowe mamy mnóstwo przekazów, które właśnie obraz fałszują, czyli podbijają niemożliwości ponadto potrafi do tego dochodzi kultura popularna wyobrażenia z filmów science-fiction nie tylko gdzie właśnie pojawia się po przejęciu władzy nad człowiekiem i te 22 rzeczywistości rzeczywistość newsowych, która karmi się doniesieniami, że oto by rozwiązała prezentuje historię człowieka problem z drugiej strony popkultura wzięte, współpracując jako w kształtowaniu tego jak sobie wyobrażamy dla mnie są już ktoś jest winny tu właśnie tu szukała źródła nadmiernego zaufania jak bardzo rzeczywiste ja starałem się nawet w artykule troszeczkę to pokazać czy dni, czyli pokazać jak mniej więcej pewne informacje o sztuczną inteligencją krążą w tym systemie czy internetu czy Czech przekazów medialnych i rzeczywiście tak jest, że np. powiedzmy sytuację, w której jakiś algorytm stworzył model kostki Rubika i ułożył no to do raczej do na różnych blogach czy takich popularnonaukowych portalach czy czy przyczyna w informacjach w portalach społecznościowych nie trafiają informacje o tym, że mamy pewien zaawansowany algorytm, który może stworzyć pewien model, w którym co da się zrobić tylko raczej trafia bardzo prosta informacja, że sztuczna inteligencja rozwiązuje kostka Rubika lepiej niż człowiek i to on, jeżeli przeczytamy oryginalne art to lepiej niż człowiek nie da chyba klub prawa powracająca mantra, która w, które w, a jeżeli jest 6 do oryginalnej pracy Narodowym dotyczącej tego algorytmu to tam takiej informacji nie ma, że ten algorytm zrobił to lepiej niż człowiek jest tutaj jakiś większy potencjał oczywistą pokazuje, więc człowiek zaprogramować mówi nam dany człowiek wymyślił jak ma to zrobić jak Jordi poradził sobie zadanie, które człowiek mu wymyśli przepisała jeszcze wsparł go w jego rozwiązaniu, więc to, że człowiek jest obecny zawsze interakcji z zarządu klient ją jako projektujących, wymyślając nadzorujący kompletnie umyka, że czeka na zimowe, ponieważ człowiek to jako jako ten, który przegrał w jakimś, gdyż konkurencji i Żyto to oczywiście bardzo bardzo fajnie się sprzedaje, bo taka informacja od razu jest przekazywana rozpowszechniana w wiele wiele osobie cytuje i przytacza tak naprawdę zatracając troszkę ten Danutę oryginalne wymiar tej informacji, czyli tam ten oryginalny artykuł, ale też, jeżeli spojrzymy sobie właśnie na kółku na kulturę popularną czy np. wiele powieści, które w ostatnim w ostatnim czasie powstaje to często są takie powieści trochę kryminalna, które kończą się tym, że nagle okazuje się, że to właśnie sztuczna inteligencja całą sytuację zaaranżowała przechytrzyła nawet ostatnio jakąś taką polską powieść na ten temat czytałem, które też ostatnim rozdziale okazuje się, że to właśnie sztuczna inteligencja wszystkich zachowała i stworzyła tom tom tom kryminalną rzeczywistość, więc wydaje się że, żeby faktycznie jesteśmy karmieni takimi takimi informacjami, które są uproszczeniami, które pokazują, jakby trochę tak Extra polują to co sztuczna inteligencja potrafi na bardzo wiele pól w zasadzie na wszystkie pola atak jak wiemy no bo ta sztuczna inteligencja jest efektywna bardzo wąskim zakresie na bardzo się podoba taka takie porównanie, które jeden z naukowców stworzył on powiedział, że sztuczna inteligencja funkcjonuje jak autystyczne Sowa, czyli to na świetnie potrafi przeanalizować pewien zbiór wąskich danych, czyli wąskich nie w sensie takim jest tych danych mało, ale wąskich zna się one dotyczą wąskiego, jakie zagadnienia świetnie potrafi przeanalizować natomiast analiza kontekstu analiza takich niewypowiedziane nie do końca określonych kwestii mąż pozostaje poza możliwościami na to sytuacja, która była w tym moim eksperymencie no właśnie jest taką sytuację, czyli w tej sytuacji trzeba by skłonić do analizy jakiś miękkich danych czy do jakiejś, mimo że ich nie było, więc tutaj centra oddać sprawiedliwość temu do decyzji nieracjonalnej, jakie podjęli badań i po prostu nie mieli dostępu do tego, jakiego tekstu, który rzeczywiście prawdziwej sytuacji tego typu musieli przeanalizować to co pan mówi na temat deficytu może, więc ja też tego jak gdzie może 3 lata, gdzie zawodzi bardzo dobrze pokazuje dokumentują potwierdzają doświadczenia choćby z słynnym Watsonem IBM ma firma IBM, który jest wykorzystywane w kontekście medycznym i nadziei wobec tej technologii tego programu były były ogromne, po czym doświadczenia lekarzy pokazały dokładnie co pan opisał, czyli bardzo wąskim kontekście analizy np. stan ludzkiego ciała wyników badań, które wymagają precyzyjnych porównań wykrycie np. apelacji na obrazie, który dla człowieka ludzkiego oka mogą tu do wykrycia u co sprawdza się lepiej niż lekarze, ale w diagnostyce no wyniki jego działań były dramatyczne to znaczy z tego co czytałam zaaplikowano te rekomendacje prowadziłoby do śmieci Onkologii pacjentów lekarze wiedzieli nie ulegali tym sugestię, więc już w możemy się pocieszać tym, że w prawdziwym konteksty, które do tego co pozbawia istniała wyobraża sobie presję czasu niedostatek informacji, bo w medycynie też nie zawsze wiemy wszystko chcielibyśmy wiedzieć eksperci lekarze nie ulega odpowiedział programu, które uważali wedle swojej wiedzy eksperckiej za nieracjonalne, więc było dużo lepiej chyba dla mnie byłaby to kolejne, przechodząc do szukania może rozwiązań dla problemu które, które pan diagnozuje jak słyszę, że również widzi pan jego jego uwagę rozumiem, że zmierzamy w tym kierunki sugestii, że właśnie co niezwykle ostrożny komu powierza się o obsługę tego typu programów czy osoba, która będzie miała kontakt z ową inteligencji w kontekście podejmowania jakichś istotnych dla innych ludzi decyzji czy będzie przygotowana czy możemy o to zadbać możemy wrócić psychologii przygotować ludzi do pełnienia tak nadzorującej krytycznej Rory z bardzo bardzo wiele jest tak naprawdę zastosowań, w których sztuczna inteligencja świetnie sprawdza takich kontekstów np. no właśnie radiologia to tutaj można powiedzieć, że rezultaty są świetne, dlatego że wykrywanie różnych zmian, jakie ma informacji np. w mózgu faktycznie sztuczna inteligencja jestem niezwykle dokładna ma dostęp do wielkiej bazy danych które, które teraz powstają też nie ulega zmęczeniu tak, czyli można powiedzieć, że każdy pacjent jest analizowane z tym samym zaangażowaniem z tą samą mocą w przypadku w przypadku człowieka wiadomo że, że tutaj zmęczenia i różne inne czynniki na to wpływają były takie eksperymenty, których właśnie porównywa po naukowcy porównywali liczby błędów, które popełniają radiolodzy sztuczna inteligencja w przypadku jakiś taki detekcji jak wśród moich informacji czy dzieci np. zmian w wyniku udarów tak znane badanie życia potwierdzają dużą radość i to mu tutaj faktycznie, że pokazuje nam to, że jeżeli wiemy, gdzie to sztuczna inteligencja się sprawdza w jaki sposób ona może nam pomóc to można świetnie wykorzystać natomiast tutaj chodzi właśnie o to, żebyśmy wiedzieli do czego wykorzystać można, gdzie ona się sprawdzi, a widzenie ten eksperyment tak naprawdę chyba, gdybyśmy mieli dać taką jedną z najmu jak taki 1 najważniejszy wniosek jak bym powiedział, że on pokazuje, że większość osób po prostu nie czuję tego, gdzie tą sztuczną inteligencję można wykorzystać widzenie jak wydaje się, że jeżeli żebrze okazuje ten eksperyment to, że większość osób, jeżeli słyszy, że np. sztuczna inteligencja świetnie rozpoznaje, jakie zmiany na obrazach np. rezonansu magnetycznego to od razu się wydaje tym osobom, że skoro to potrafi ona potrafi też wszystko tylko zdobyć komentarza może zastąpić lekarza może zastąpić policjanta może nastąpić w zasadzie wszystko, ale ciekawa 34 z Legią, która wyjaśniała takie Pragi nie wie jak dodał rzecznik słyszę tutaj coś więcej niż racjonalną analizę, ale to zupełnie innego niż właśnie racjonalnie tej regulacji powinno być ATA powinno usłyszeć faktem temat też zasłuży ewidencji tego faktu, że trzymacie i resztę kontekst ocenia krytycznie samodzielnie, jeżeli wychodzimy jak pan opisał wychodzimy krok dalej także sobie życzyli trochę tego, aby ktoś zwolni zbywalności istoty, które wyjaśniała takie pragnienie ulokowanie odpowiedzialności czy kontroli w urządzeniu raczej niż zachowania dla siebie sposób wydają się taką pierwszą podstawową rzeczą, która tutaj którą, która tak się pojawia to jest może nie tyle właśnie pragnienie ulokowania tej komunizmu decyzję gdzieś poza nami, ale bardziej tutaj dotyczy to tego co odkrył Kane man noblista, który mówił o 2 systemach o systemie pierwsza i systemie drugim my większości sytuacji działamy na poziomie tego systemu chodzi o nas ta tego systemu pierwszego czy ten system pierwszy taki system, w którym tak naprawdę między nie chcemy za dużo myśleć, czyli chcemy robić rzeczy automatyczne chcemy robić rzeczy, które nie wymagają użycia energii są po prostu przyjemniejsze lub po prostu zaczęło jeździć wysiłek i teraz, jeżeli mamy jako sytuacje, w których w, której możemy zmniejszyć ten wysiłek albo w ogóle go nie podjąć to chętnie wybieramy no tutaj, jeżeli mamy taką właśnie informację, że sztuczna inteligencja wciąż świetnie sprawdza to bardzo wygodnie jest dla nas przełożyć to ona inna sytuacja zakładać, że tam też pewnie świetnie sprawdza, więc co będę się nad tym zastanawiać skoro ona tak mówi dlatego to tak to takie z czego się obawiało się najbardziej właśnie system pierwszy i takie nasze podstawowe instynkty motywowane potrzebą wygody potrzebą do 2 skrótów w myśleniu oszczędzania energii czegoś co jest ludzkiej i naprawdę trudno winić go pech polega taki mechanizm będą podbijały zapotrzebowanie na aplikacje programy, a nawet być może roboty, które zresztą zdejmują i jeżeli to coś to są pana, ale w kanale decyzje dotyczące tylko mojej osoby np. analiza nie wiem mojego rytmu rytm snu czy oddechu dzieci czy systemami doradzić jak pisze odrzucał lepiej biegać dotyczy to tylko mnie to pół biedy ale kiedy wchodzimy decyzje o wysokiej randze społecznej naprawdę zaczynam się czuć zaniepokojona i już zmierzając, ponieważ rozmowy, gdyby miał pan doradzić jak w takim razie przygotowywać właśnie ludzi do interakcji takimi systemami ludzi eksperci boją się, że on rozmawiamy prawda pełna zgoda co do tego, że przez nich, czyli nikt w Polsce hali w normalnej w innych krajach nie powierzy poważnych decyzji np. takich jakie, jakie w eksperymencie wykorzystaliście laikom bez żadnej wiedzy eksperckiej, ale jak i architekt przygotowywać np. osobowość może mieć jakieś znaczenie interakcji z maszyną czy możemy pójść tak daleko w kierunku sugestii, że trzeba patrzeć na osobowy człowiek, który wchodzi w interakcję dobierać takich, którzy no nie wiem nie ulegają sugestią zbyt łatwa większość tych eksperymentów, które z zakresu psychologii społecznej, które pokazywały pewien typ uległości np. względem autorytetu raczej wykazywały, że tutaj cechy osobowości nie mają dużego znaczenia i myślę, że w przypadku akurat w interakcje ze sztuczną inteligencją w większości kontekstów również tak będzie z racji tego, że jestem pedagogiem to zawsze skłaniam się do takich rozwiązań pedagogicznych i tutaj też mam takie poczucie, że my potrzebujemy pewnej edukacji w zakresie sztucznej inteligencji to to tak troszeczkę jest, że edukacja w ogóle w kontekście wszelkich technologii jest bardzo bardzo uboga czyli, jeżeli zobaczymy jak bardzo rozwijają się technologii z jakich technologii korzysta młodzież dzieci co oni potrafią zrobić i jakiej rzeczywistości technologicznej funkcjonują później zostawimy to z tym, czego oni się uczą technologiach to widzimy ogromną przepaść i ten eksperyment też to pokazuje to pokazuje, że te osoby w większości nie mają specjalnie wiedzy na temat sztucznej inteligencji oni posiadają pewne informacje, czyli docierają do nich pewne no tak właśnie mówiliśmy informacje medialne często uproszczone czy tak jest kultury popularnej, a nie da się ukryć że, że dużo tych tych przekazów kultury popularnej teraz bardzo mocno osadzona, jakby z takiej w takim kontekście troszeczkę naukowym im chciałbym, żeby dobrze można było zrozumieć, czyli np. wiele filmów udaje wiele filmów o sztucznej inteligencji np. pokazuje jakąś biografię jakiegoś naukowca tak czy jakieś badacza czy kogoś, kto jest w sumie to wrażenie, że to co dziwne plamy mogą być gospodarze, bo stoi zatem, że stoją za tym jakieś osoby, które faktycznie mają mają taką wiedzę ekspercką coś robią w tym zakresie no, więc jeżeli teraz o tym wszystkim pomysł nie ma czyli, czyli przeciętna osoba korzystała z technologii w takim sensie, że ma do nich dostęp widzi rzeczywiste różnego typu urządzenia dzięki wielu urządzeń można robić niesamowite rzeczy później trafiają do nich różne przekazy medialne, które pokazują tam sztuczną inteligencję jako jako coś co naprawdę świetnie działa wszak wiedzą co jest opracowywane przez ludzi z wielkim doświadczeniem wielką lepszy niż człowiek to wtedy zaczyna zaczynamy mieć tego typu problem natomiast edukacja w tym wszystkim odgrywa wielką rolę, ale tej edukacji w zakresie takich nowych technologii nie ma tak naprawdę nie kształtami zza morza kształtujemy jakich postaw w stosunku do technologii bardzo często też to widać w kształceniu nauczycieli np. przyszłych nauczycieli czy właśnie w szkołach, że uczniowie to czy studenci oni tak naprawdę nie są specjalnie edukowani w zakresie nowych technologii no też w zakresie krytycznego myślenia względem technologii to jest bardzo bardzo ważny wątek, który jest bardzo bardzo mocno pomijane, a i tak na wydaje minister i to i to też starałem się pokazać w oparciu o różne książki, które w ostatnim czasie powstały za granicą, że no właśnie taki wątek czy, że jest taka teza, która mówi o tym, że im bardziej rozwija sztuczną inteligencję, tym bardziej musimy rozwijać krytyczne myślenie względem mniej i tym bardziej musimy edukować ludzi w zakresie tego czym jest sztuczna inteligencja do czego można wykorzystać, gdzie jej nie powinno się wykorzystywać, czyli w tym sensie, że ona tam się na razie jeszcze nie sprawdzi to jest taki tak taka rzecz taka jak moja troszeczkę recepta nie taki, a takie przesłanie wniosek z tych badań, że potrzebujemy tego typu edukacji potrzebujemy właśnie jakich działań które, które mogą w tym pomóc nie mogę zgodzić się bardziej ze swojego doświadczenia ze swego ze swoich twierdzeń złotowych mogę zadeklarować fundacji Panoptykon, który pracuje robi wszystko w tym kierunku co by w stanie zrobić np. publikowaliśmy w tym roku przewodnik po różnych agencji, które właśnie tytule ma non fiction, czyli do odnosimy się wprost tych mitów i rozmaitych wyobraźni, które są tak jak pokazuje pańskie badaniem są mogą być naprawdę szkodliwe staramy się dokładnie te granice kompetencji różnych agencji tłumaczyć na przykładach to jest działanie bardzo niszowy, choć zachęca wszystkich, żeby wszyscy przewodnikiem zapoznać się naprawdę jest po ludzku napisane i myślę ciekawy natomiast to jak wejście do szkół jak dotrzeć z tym do dzieci, które za chwilę będą decyzje w swoim życiu podejmować być może będą policjantami sędziami lekarzami, którzy powinni umieć zachować mityczne myślenie to już zadanie na miarę państwa mogę tylko podpisać się w kwestii LM i podziękować, że z waszych badań do wysuwa się też wnioski skoro do społeczeństwa do polityków i tak głośno mówić o potrzebie bardzo dziękuję że, że poświęcił mi pan czas na wyjaśnienie co tak wypowiedział się w eksperymencie na wyjaśnienie tej kontrowersyjnej tezy niestety brzmi ona jak coś co co co trudno podważyć, więc tym bardziej, tym bardziej piłeczka jest po stronie projekty dlatego rozwiązania komentujący w mediach i tworzących programy edukacyjne, bo system 1 zaś mózgu raczej sobie nie poradzimy trudno trudno jest reformować ten system 1, który prowadzi do kilku modeli zachowań niż reformować np. sposób w jaki uczymy technologii prawda w i widzę, że się zgadzały dziękuję bardzo, moim gościem był prof. Michał Gzowski mówiła Katarzyna Szymielewicz jak zwykle zachęcam do śledzenia ich odcinków podcastu pod opieką 40 wysyłanie do własnych przemyśleń pomysłów na to, o czym chcielibyście posłuchać na pewno temat tego co dalej z resztą 9 jak np. trenować ludzi do współpracy z nią będzie się jeszcze dna w tym podcaście pojawią serdecznie dziękuję technologie i człowiek człowiek i technologie, gdzie na tym styku czekają nas zagrożenia jak korzystać z technologii by na nich skorzystać jak kontrolować, kto gromadzi nas informacje do czego używa z ekspertami praktykami rozmawia Katarzyna Szymielewicz Panoptykon 40 podcast tokfm PL i fundacji Panoptykon Zwiń «

PODCASTY AUDYCJI: PANOPTYKON 4.0

Więcej podcastów tej audycji

REKLAMA

POPULARNE

REKLAMA

DOSTĘP PREMIUM

Słuchaj podcastów TOK FM bez reklam. Wybierz pakiet "Aplikacja i WWW" i słuchaj wygodniej z telefonu!

KUP TERAZ

SERWIS INFORMACYJNY

REKLAMA
REKLAMA
REKLAMA