REKLAMA

Czy da się zatrzymać pędzącą sztuczną inteligencję?

A teraz na poważnie
Data emisji:
2023-03-30 12:00
Prowadzący:
Czas trwania:
14:17 min.
Udostępnij:

AUTOMATYCZNA TRANSKRYPCJA PODCASTU

Transkrypcja podcastu
jest 512 Mikołaj Lizut witam państwa pierwszym gościem programu jest Małgorzata Razer dziennikarka autorka podcastu te Express Caffe dzień dobry dzień dobry dziękuję zaproszenie na stronie Future Live znajduje się list otwarty skierowany do wszystkich laboratoriów zajmujących się sztuczną inteligencję wzywamy wszystkie laboratoria do natychmiastowego wstrzymania na co najmniej 6 miesięcy szkoleń systemów ITI potężniejszych niż jeep ITI forum czytamy w liście no jego Rozwiń » przesłanie jest chyba jasne widzimy obecnie taki wyścig zbrojeń NATO, kto stworzy potężniejszą sztuczną inteligencję na, a jednocześnie łączy się to z wieloma ryzykami, gdy ten list podpisał m.in. Elon Musk, a także z tych Woźniak twórca ma AK czy nauczyli są to jakby takie umysły mocno zaangażowane także stworzenie sztucznej inteligencji Czyżby było tak, że zaczęliśmy się bać buntu maszyn tak jak w filmach science-fiction może niekoniecznie zaczęliśmy bać się bunt maszyn, ale zaczęliśmy przynajmniej części obawiać się tego, czego mogą doprowadzić nas nowe wynalazki, kiedy korzystamy z nich w sposób, który nie jest w ogóle uregulowane w żaden sposób prawnie i etycznie pojawienie się generator na sztucznej inteligencji, czyli wspomnianego modelu wybity form, a także jego poprzednika słynnego czatu PIT-y, a także algorytmów takich jak np. dalej czy mit dzielnej, które pozwalają na generowanie obrazów wprawiło świat w osłupienie przede wszystkim, dlatego że te są możliwości którymi do tej pory się nie stykali my nie jesteśmy w stanie dzisiaj od różnic tekstu generowanego przez czas, gdzie PIT-y od tekstu napisanego przez media kara, bo osoby, która ma zadanie np. napisać esej na jakiś egzamin nie jesteśmy w stanie odróżnić obrazu, który narysuje dla nas czy też stworzy raczej algorytm mit wolnej od obrazu, który byłby dziełem pracy artysty cyfrowego artystki i to jest problem, z którym się zetknęliśmy w zasadzie nie wiedząc co z nim zrobić nigdy wcześniej tak nie było dawno problem z prawem autorskim prawo za wiele problemów właśnie no choćby takie, że tego typu twórczości nie potrafią rozpoznać programy do ścigania plagiatów to wszystko prawda natomiast no ciekawe jest to, że w tej takiej Futura Logi rodem z literatury czy filmu strusia inteligencja kojarzy się raczej z takimi humanoidalne danymi robotami, które trochę udają człowieka najpierw przede wszystkim wykonują jakieś takie ciężkie prace fizyczne natomiast sprawa twórczości no to jest właściwie to nie jest domena właśnie tych tych ludzkich tworów tymczasem okazuje się, że ten go epoki tej ogólnej sztucznej inteligencji, czyli właśnie tych Human idealnych robotów, które mogą samodzielnie decydować o następnej wykonanej czynności będziemy mieli szereg problemów, który wyniknie już nie tylko wspomnianych przez redaktora naruszeń praw autorskich czy tej odruch, ale nie odróżnia wolności, której mówiłam, ale na pewno wszyscy widzieliśmy w cudzysłowie mówię tutaj zdjęcie przedstawiające papieża Franciszka kurtce chodzi jednak jak ludzi myślę i ten obrazek został wygenerowany przez sztuczną inteligencję miliony ludzi dały się nabrać, że papież Franciszek istotnie ubrał się coś takiego i i zaczęły się z tego wyśmiewać podczas gdy był to obraz generowany algorytmicznych tak samo jak algorytmicznych zostały wygenerowane postaci Baracka Obamy byłego prezydenta USA oraz byłej kanclerz Angeli Merkel, którzy spędzali świetny czas na plaży bawiąc się z piasku i skacząc w morzu to nie są zdjęcia to są wszystko obrazy, które mają nas oszukać, a więc powiedziałabym że, zanim dojdziemy do ery robotów, które myślą, które mają w sobie ogólną sztuczną inteligencję będziemy mieli erę generatory by w informacji to jest właśnie jedno z zagrożeń przed którymi ostrzega ten list jest coś absolutnie, czego do tej pory sobie nie wyobrażaliśmy ten jest taki w ogóle w klimacie powiedzmy końca dziewiętnastego wieku, gdy maszyny parowe zaczęły odbierać pracę właśnie tę fizyczną pracę ludziom teraz okazuje się, że np. właśnie mijał lekarzy czy powiedzmy kopie raj też, którzy piszą kampanie reklamowe mogą czuć się zagrożeni, bo powiedzmy powieść wygenerowana przez sztuczną inteligencję nie jest specjalnie jeszcze ciekawa, ale już takimi rzeczami jak kampanie reklamowe sztuczna inteligencja rodzic re radzi sobie całkiem nieźle i to jest i 1 strona medalu oczywiście wspomniała pani o tym, że sztuczna inteligencja bardzo łatwo nas oszukuje choćby tymi wygenerowany sztucznie obrazami papieża czy Baracka Obamy na, ale także każdy, kto się zetknął z z szatami z właśnie ze sztuczną inteligencją wie, że one bardzo często jak to się nazywa fachowo relacjonują to znaczy zmyślają zmyślają i kłamią, dlaczego tak dzieje mniej więcej wiemy, ale na często trudno zweryfikować, kiedy sztuczna inteligencja halucynacje a kiedy mówi prawda tak prof. Princeton Argentyna Jana stwierdził, że uciekł czy PIT, czyli po poprzednik tego obecnie najbardziej rozwiniętego modelu, jakim Institute for czas epiki wyprodukowany przez firmę open, a której współtwórcą kiedyś był Elon Musk tutaj warto to sobie dopowiedzieć to jest cytat generator Bushi, czyli bzdur i problem z tymi modelami polega na tym, że one nie zostały zaprojektowane po to, żeby mówić prawdę one zostały zaprojektowane, żeby brzmieć przekonująco one mają oddziaływać na nas taki sposób, żebyśmy mieli wrażenie, że rozmawiamy z człowiekiem posługującym się tak jak my językiem naturalnym one skonsumowały ogromne ilości treści całego internetu otwartych źródeł takich jak strony internetowe jak publiczne profile w mediach społecznościowych jak opracowania naukowe, które do internetu zostały rzucone można sobie ściągnąć w postaci jakiegoś pliku tekstowego pdf generalnie one nauczyły się wszystkiego, czego można było się w internecie nauczyć, szanując oczywiście przedtem jak redaktor wspomniał praw autorskich niejednokrotnie nie szanują też prywatności, bo wiemy już o tym, że modele podczas rozmów z nimi, o ile można nazwać rozmową wyrzucają czasami np. czyjeś prywatne dane medyczne są już przypadki osób, które zdecydowały się firmy open, a w związku z takimi naruszeniami prywatności pozwać go w tym procesów jest cała masa, a także pod względem praw autorskich FR atakiem wyciekły dane medyczne, bo nauczył się tych danych medycznych i o to właśnie zwrócił nam całą naszą powiedzmy kartę onkologiczną to nie jest sytuacja, w której ktokolwiek z nas chciałby się znaleźć, ale prawdziwość komunikatów, które czas, gdy PIT czy inne modele zwracają to jest obecnie jeden z najtrudniejszych tematów, jakimi wszyscy się mierzymy, bo więcej czy też obraz przedstawiający papieża Franciszka jako ludzika myślę on po prostu uświadomił nam, że bez odpowiednich oznaczeń bez odpowiednich ostrzeżeń treści generowanych przez algorytmy my nie będziemy w stanie sobie poradzić, a z drugiej strony przecież przywykliśmy do tego, że dezinformacja jest w naszym otoczeniu, że powstaje cała masa choćby rosyjskich stron internetowych podszywających się pod serwisy informacyjne czy też kont w mediach społecznościowych, które polaryzują nas budzą podziałów społeczeństwie pogłębiają pęknięcie, które m.in. w Polsce istnieje przecież od lat żerują właśnie na naszej skłonności do wiary w komunikaty, które są przekonujące, bo my jako ludzie nie weryfikujemy fakt mamy na to czasu nie mamy na to chęci i to będzie mieściło właśnie w kontekście debaty no właśnie na, ale oczywiście sztuczna inteligencja rodzi bardzo wiele pytań natury etycznej natury filozoficznej no choćby bardzo wiemy sami czym jest ludzka świadomość, ale te pytania pojawiają się właśnie w kontekście jeep ITI 4 i dalszych generacji no tu przede wszystkim jest taka teza, że wielkość i skomplikowanie tego okablowania tej sieci neuronowej, z których składa się sztuczna inteligencja w końcu wygeneruje świadomość i co wtedy moim zdaniem nie wygeneruje świadomości świadomość jest jednak coś więcej niż nie wiemy to jest co na to jest religią ile są tezy medyczne są tezy filozoficzne to jest taka przestrzeń także nas samych, która precyzyjnej definicji nie ma zgadza się, ale przede wszystkim świadomości nie można opisać skończonym zbiorem danych, a tutaj mamy do czynienia jednak z mechanizmami, które uczą się na zakończonych zbiorach danych i przetwarzają je mimo tego, że te zbiory są organy publiczne to wciąż model uczą się na ograniczonych zasobach możemy w pewnym momencie odciąć model od pobierania kolejnych danych kolejnych, które będą wykorzystywane przez niego do tego, żeby dalej szkolić i powiedzieć stop ważne jest, żeby wiedzieć, kiedy odłączyć wtyczkę, żeby ktoś potrafił to zrobić to co jest problemem to jest tzw. mechanizm czarnej skrzynki, które jest ryzykiem przy powstawaniu tego rodzaju systemów NATO zwraca się uwagę również bliscy, którym zaczęliśmy naszą rozmowę, bo systemy, które są obecnie konstruowane one są jeszcze pewien sposób przejrzysta możemy zrozumieć jak działają możemy zrozumieć w jaki sposób odbywają się mechanizmy uczenia się tych systemów itd. itd. ale problemem będzie, jeżeli powstanie system, który nie ujawni nam jako twórczą czy też jako kontrolerom jego działania tego jak działa w jaki sposób zdobywa wiedzę, jakie pozyskuje ważne jest, aby stworzyć takie rany, które będą zabezpieczały nas właśnie poza pójściem o ten krok dalej i to wcale nie oznacza rozwoju świadomości tylko to oznacza wyjście poza granice, kiedy jako ludzie jako twórcy takiego rozwiązania stracimy nad nim po prostu techniczną kontrolę, więc ja bym traktowała rozmowy o zagrożeniach nie z punktu widzenia filozoficznego czy psychologicznego, bo do takich zagadnień należy ludzka świadomość, ale z punktu widzenia po prostu odpowiedzialności twórców za ich modele za to jak one są ograniczone i żeby ograniczenia bądź co bądź były odpowiedzią na właśnie potrzeby etyczne na potrzeby nas jako ludzi niestety to się kłóci z podejściem prezentowanym przez kapitalizm cyfrowy, który po prostu położyć świeżą reaktor ruszył do rozwoju nomen omen po trupach tutaj jest dobrym przykładem likwidacja działu zajmującego się etyką sztucznej inteligencji i który został przez firmy Microsoft rozwijającą obecnie bardzo dużo produktów opartych o jak i zamknięty mimo tego, że w tym dziale pracowało tylko uwaga uwaga 7 osób, a więc jego utrzymanie nie było jakimś finansowym wyzwaniem radował się więc, chociaż trudno się z tezami tego listu otwartego w nie zgodzić na to jego skuteczność wygląda niezbyt obiecująco no trudno przypuszczać, że laboratoria wstrzymają swoje swe prace nad sztuczną inteligencją na co najmniej 6 miesięcy właśnie w imię pewnej refleksji no bo wyścig dotyczy naprawdę gigantycznych pieniędzy laboratoria mogą wstrzymać, ale nie oznacza to, że nie zostaną wykupione przez wielkie koncerny, bo należy pamiętać o tym, że to właśnie w małych laboratoriach takich jak kiedyś, jakim kiedyś była firma open jaj to właśnie w małych laboratoriach jest dzisiaj wiedza są zasoby ludzkie jest know how, które kupują wielkie firmy takie jak Google Microsoft czy meta to i jeżeli firma przejmie pracowników cenie technologie przejmie narzędzia to będzie mogła robić dalej z tą wiedzą co chcę bardzo dziękuję bardzo, dziękuję za tę rozmowę Małgorzata Razer dziennikarka autorka podcastu Express co Cafe była gościem państwa moim, a teraz informacje Zwiń «

PODCASTY AUDYCJI: A TERAZ NA POWAŻNIE

Więcej podcastów tej audycji

REKLAMA

POSŁUCHAJ RÓWNIEŻ

REKLAMA

DOSTĘP PREMIUM

Słuchaj wszystkich audycji Radia TOK FM kiedy chcesz i jak chcesz - na stronie internetowej i w aplikacji mobilnej!!

Dostęp Premium

SERWIS INFORMACYJNY

REKLAMA
REKLAMA
REKLAMA