REKLAMA

Maluch doładowany silnikiem atomowym - jakie wyzwania tworzy AI

Magazyn filozofa  - Tomasz Stawiszyński
Data emisji:
2023-05-20 12:00
Prowadzący:
Czas trwania:
40:14 min.
Udostępnij:

AUTOMATYCZNA TRANSKRYPCJA PODCASTU

Transkrypcja podcastu

Rozwiń » A z nami jest Filip Konopczyński z fundacji pan optykon dzień dobry Filipie, dzień dobry, zacząłbym naszą rozmowę od nawiązania do tego głośnego listu, który się ukazał pod koniec marca, który m.in. ilon mask podpisał juwalnoaka hararii i inni prominentni przedstawiciele wirtualnego biznesu i i różni intelektualiści. W tym liście wzywano do tego, żeby zastopować pracę nad eai co najmniej na pół roku, ale może nawet i dłużej, żeby się właśnie tak zastanawiać nad tym, jakie zagrożenia właściwie mogą się z tym wiązać moją. Przyznam odruchową, myślą, kiedy ten list zobaczyłem była myśl, że, owszem nie wykluczam, że stoi za nim jakaś głęboka troska o sprawy ludzkości, ale też przyznaje pomyślałem, że być może rozwój ra i może zagrażać interesom różnych osób pod tym listem podpisanych. Może to być wyraz jakiejś gry interesów itd. i od tego chyba zacząłbym naszą rozmowę, co ty o tym myślisz o takiej interpretacji powiedziałbym nieco ktoś by rzekł cyniczne. I ja bym powiedział realistyczne i bardziej czy tutaj nie chodzi przypadkiem też o jakieś interesy po prostu w tym całym sprzeciwie w tych apokaliptycznych opowieściach o i które się nagle pojawiać, zaczęły bardzo masowo w kręgach właśnie ludzi z wirtualnym biznesem związanych.
No, więc tak list zrobił bardzo duży szum i łatwo byłoby się od niego jakoś tam odcięć i powiedzieć, że to jest przesadzane, że to jest panika moralne, natomiast bardzo uwiarygodniły go podpisy, które się pod nim znalazły. I tutaj mówię to o podpisach takich osób, jak np. stewar trassel, czyli taki wybitny informatyk 1 ze współautorów definicji w OCD tam był doszło bgio, czyli też taka bardzo bardzo uznana postać. Mówię o tym świecie świecie badaczy naukowców zajmujących się ii natomiast sama genezę tego listu, bo to też sporo o tym sporo o tym rozmawialiśmy i też próbowałem znaleźć się znaleźć takie początki, o co tam chodziło. No słyszałem pewne zarzuty wobec tego, listu znaczy np. takie, że ta treść, którą deklarowali na początku badacze i te większe nazwisko ona się zmieniała, już, jakby po uzyskaniu tego.
Tak tam była wersja pierwsza inna zupełnie właśnie nie do wstrzymania, tylko do jakiegoś takiego uważnego przyjrzenia się tym sprawą wzywano. Wtedy.
Tak i to i to jest 1 element to jest niedobra praktyka, jeżeli podpiszemy jakiś list fajnie, żeby potem to nie było zmieniane, bo, bo jest oszustwo. Natomiast myślę, że dobrą interpretację jest tak, że po prostu zastanowienie się, kto opublikował ten list i nie mówię tutaj o Ilonie masku, tylko o małżeństwie w zasadzie te g marków, którzy, którzy są zaangażowani w działalność świ noflife w Instytutu. To jest taka organizacja, która trochę prowadzi bada z obszaru etyki nad ii, ale niekoniecznie jest skupiona na eaju. To jest taka organizacja, no trochę byśmy widzieli taki snktank futurologiczne, gdzie, gdzie prowadzone są te duże dyskusje, no i także także warto tutaj odnotować, że ten postulat wstrzymania badań on jest po pierwsze, nierealistyczny, bo już minęło parę miesięcy, nikt tego nie zrobił, nawet dobrowolnie, a po drugie, znaczy też z zastrzeżeniem, że tam chodziło o wstrzymanie badań nad pewnym typem. Ai czy ea, czyli właśnie tymi dużymi MO odnalami językowymi mocniejszymi czy bardziej posiadającymi większą liczbę połączeń neuronowych tych sztucznych sztucznych połączeń neuronowych niż gpt i.
4.
No ale no po pierwsze nikt tego nie wdraża po drugie, raczej redominuje taki głos, że to nie chodzi o to i z tym się bardzo mocno zgadzam, że to nie chodzi o to, żeby wstrzymać badania tylko, żeby wstrzymać zastosowanie pewnych systemówi. To jest to jest to jest trochę tak, jakbyśmy powiedzieli, żeby wstrzymać badania nad energią atomową. Nie tu jest problem problem jest w użyciu atomu w sposób niebezpieczny jest problem kwestie zdrowotne problemem jest zagrożenie użyciem nawoni w zasadzie tak samo jest w przypadku sztuczne inteligencji. Natomiast były też dobre elementy w tym liście, to znaczy to to zwrócenie uwagi na na te zagrożenia, a może nie właśnie na zasadzie Terminatora, bo to jest jednak ciągle sciece fiction i albo zawsze pozostanie science fiction.
To jeszcze bardzo długo w taki esy jorona laniera w nerkerze jaron liner to też jest ciekawa postać bardzo człowiek, no niegdyś bardzo zaangażowany też w wirtualną rzeczywistość. Dzisiaj teoretyk wylogowany w znacznym stopniu ze świata cyfrowego, ale piszący bardzo ciekawe przenikliwe teksty na ten temat. No i on właśnie do tych wszystkich takich nieco apokaliptyczno historycznych głosów dotyczących sztucznej inteligencji, która już miała się u podmiotowić, przejąć kontrolę nad ludzkością itd. no taką annotację zrobił, że zaraz moment na razie to w ogóle nie jest żadna w tym sensie sztuczna inteligencja, tylko to są pewne narzędzia do tam przetwarzania informacji po prostu, które, owszem, są jakoś niezwykłe. I na pewno stanowią postęp Technologiczno ogromny, ale nie są tym jeszcze w ogóle co nam się.
Czy to jest jakoś metafiarzy? Tak to jest jakoś spora. Mówimy właśnie bardzo potężnych w przypadku takich modeli jak gpt czy tych silniejszych dużych modeli językowych. Wiemy, że zarówno Facebook jak Google mówiąc o tych zachodnich konkurentach, także rozwija swoje modele i można zakładać, że one także będą coraz coraz sprawniejsze, więc mówimy na pewno o pewnym przełomie technologicznym, no ale tak jak fotoshop nie było początkiem sztucznej inteligencji, tak dzieci nie jest w tym sensie początkiem, jak jakieś nowe formy formy życia. Natomiast niewątpliwie podczas tej całej dyskusji burzy miejscami paniki moralnej, która się odbywała właśnie od momentu wypuszczenia do powszechnego użytku gpt i w tej wersji 34. No ja mam takie taką osobistą bardzo ciekawą, znaczy bardzo interesującą mnie perspektywę, to znaczy no widać, że jednak ludzie mocno projektują, kiedy mówią o tej o tej technologii, to znaczy projektują swoje potrzeby wyobrażenia lęki chęci to jest trochę taka. Ja nie wiem, czy ludzie mają taką świadomość, ale moim zdaniem to jest jednak zdradzanie jakichś swoich bardzo głębokich postaw wobec świata wobec siebie wobec rodziców. Myślę, że tu wobec wobec religijności, myślę, że tutaj tutaj ta koncepcja tego stworzenia nowego życia to jest coś, co zarówno dotyka jakiś tych kwestii, kwestii nie wiem, już nie jestem specjalistą analizy, ale tutaj te mama tata jakoś brzmi mi w tyle dzieci. Tak z drugiej strony to jest pewno odwieczne marzenie ludzkości o tym, żeby, jakby skopiować to nasze wyobrażenie o tym, co zrobił Bóg z twórca, czyli stworzenie człowieka. No, więc to jest bardzo głęboki uwikłany temat. Natomiast no jest to dywagacja filozoficzna, które oczywiście można można prowadzić. Natomiast to, co jest istotne dla tutaj właśnie tych realnych wyzwań związanych z eim i regulacjami, przed którymi stoimy, no bo ta technologia widać, że się rozwija jest potężna. No to jest no trzeba jednak przyznać, że w dużym stopniu fiasko ponieśli filozofowie etycy, którzy podchodzili do kwestii bezpieczeństwa czy właśnie z takiego alinement powiązania celów sztucznej inteligencji czy celów programów komputerowych algorytmów z celami ludzkimi, no bo tak, śledząc od kilku lat i od początku roku bardzo mocno intensywnie pracując w obszarze unijnych regulacji. Tak od strony społecznej od strony organizacji pozarządowych, takich jak pan optykon ten proces negocjacji aktu sztucznej inteligencji widać, że naprawdę te pieniądze, które wydano na filozofów, niestety prawników, którzy zajmowali się etyką, a nie prawem tak nieregulacjami. No po prostu był zmarnowany. Tak to jest nieprzydatne te dylematy wagonika te jakieś zasady robotów. No oczywiście można to robić, jeżeli kogoś to interesuje, to nie widzę nic przeciwko natomiast na poziomie tego, kiedy stykamy się z tą prawdziwą materią, już mamy jakiś program, który jakimś ludziom, którzy, którzy z niego korzystają lub lub są poddani jego działaniem, powoduje jakieś efekty. To nam nic z tych z tych dywagacji o tym o tym, jak czy Robot powinien chronić siebie, to po prostu nic z tego nie przychodzi. Ostatecznie jesteśmy w takim miejscu i to jest myślę i optymistyczne i takie właśnie urealniające tą sytuację, że po prostu mamy do czynienia z nową technologią. Cały czas patrzymy, jakie ona ma możliwości ograniczenia. No i tak jak w przypadku technologii musimy stworzyć prawo, które sprawi, że będzie ona bezpiecznej będzie ona działała z na naszą korzyść, a nie będzie powodowała zagrożenia. I tutaj już tak dając dając oczywiście głos chciałem chciałem też zwrócić uwagę, że niestety tą dyskusję bardzo mocno zaburza. Bym powiedział taka nieetyczne i hipokryzka postawa wielu przedstawicieli sektora biznesowego. Kilka dni temu miało miejsce, pewnie będziemy o tym jeszcze rozmawiać przesłuchanie sama Altmana, czyli takiego SIO o Pen jaj. No i tak sobie sprawdziłem informacje o lobbingu w Stanach no i do do teres od początku roku w obszarze ja i tak na cele związane dotyczące w jakim stopniu ey prywatne firmy w Stanach wydały na Kongres tylko w kongresie 100 000 000 USD. No i sama mam dzień przed tym przesłuchaniem, był na kolacji zamkniętej, więc z przedstawicielami ludźmi, którzy potem mieli go przesłuchiwać grillować, tak więc w pewnym sensie te takie roztaczanie tych takich strasznych wizji apokaliptycznych tego nie końca zmierzchu człowieczeństwa. No to jest bardzo w interesie tych dużych firm, które, którym łatwiej jest właśnie wchodzi na ten poziom filozoficznym, bo z tego niestety dla nas nic nic konkretnego nie wynika, a trudniej jest rozmawiać np. odpowiedzialności prawnej. O tym, jak weryfikować jeszcze dana treść, jest jest jest dobra, czy te programy są bezpieczne itd.
czyli tu jeszcze taki mechanizm działa też przecież na różne sposoby stosowany już od dawna, że mamy tą wielką zbiorową inwestycję emocjonalną wizję katastrofy wywołanej przez upodmiotowioną sztuczną inteligencję w stylu Terminatora. I tego się przede wszystkim boimy przed tym się chcemy chronić tego się tego się obawiamy o tym fantazujemy, a tu po drodze jak spotem cała masa różnych rozwiązań jest instalowane, które instalowanych, które też są bardzo groźne, tylko w innym sensie, ale my na to już nie zwracamy.
Uwagi, ale też kwestia takiego porównania, jeżeli faktycznie przyjmiemy, że tym największym największym zagrożeniem, przed którym stoimy jest koniec świata, to na tle tego to, że jakaś osoba z podatnością psychologiczną zostanie skrzywdzona przez czat bota albo, że jakaś grupa etniczna kulturowa religijna będzie dyskryminowana. To nie jest problem. Oczywiście mówię teraz ironicznie, bo to są ogromne problemy, ale trzeba im się przybędać w bardzo konkretnym kontekście danej danej technologii i na szczęście mimo tego bardzo silnego lobbingu w wielu miejscach m.in. na świecie m.in. w Unii Europejskiej. No zmierzamy w kierunku takich regulacji, która adresują realne problemy, a nie, a nie te no właśnie wimaginowane, czy te takie rodem z scienfaction.
Filip Konopczyński jest z nami i będzie po.
Informacjach.
Filip Konopczyński z fundacji pan optykąd wciąż z nami raz jeszcze dzień dobry Filipie.
Witam.
No, więc w międzyczasie tzw, kiedy tutaj trwały informacje, to ja się zalogowałem do czata gpt tej czwartej wersji najnowszej i poinformowałem go, że rozmawiamy o nim właśnie z tobą, odpiał, że miło usłyszeć, że rozmawiamy z tobą o nim i czy może w czymś pomóc. No, więc napisałem, że o różnych zagrożeniach związanych z twoim dalszym rozwojem się.
Znaczy moim czyczeta.
Twoim.
Oczywiście nie no, chociaż chętnie się dowiemy.
Trzeba ta rzecz jasna rozmawiamy i tutaj 5 kwestii, które mogą budzić obawy czat gpt wygenerował. To może przedstawię je prywatność danych propagacja dezinformacji, dyskryminacja i uprzedzenia bezrobocie i nierówności społeczne kontrola i nadzór.
Takie jest dobrawista.
Prawda też mi się tak wydaje.
Czy nie można by ją jeszcze poszerzyć, ale to jest?
No to każdego tutaj punktu jest kilka zdań np. przy prywatności danych wzrost ilości danych, które gromadzi się na temat użytkowników, może stanowić zagrożenie dla prywatności. Ważne jest, aby zapewnić odpowiednie zabezpieczenia i kontrolę nad danymi osobowymi propagacja dezinformacji, sztuczna inteligencja może być wykorzystywana do tworzenia i szerzenia dezinformacji lub fałszywych informacji. Konieczne jest rozwinięcie narzędzi i strategii, które pomogą w zwalczaniu tego problemu. No to rzeczywiście chyba dosyć istotny problem nie.
Oba obecną bym powiedział jednymi z jednymi z największych, to znaczy, jeżeli chodzi o prywatność, to tutaj to, co powiedział to, co powiedział algorytm, można by jeszcze uzupełnić o no fundamentalny dla działania, szczególnie tutaj gpt kwestie związane z tym, skąd te dane, na których trenowane był ten model oryginalnie zostały pozyskane. No i wszystko wskazuje na to, że one zostały pozyskane z tego, co w internecie było dostępne w takim trybie otwartym, co zawiera także mnóstwo danych osobowych o prawdziwych ludziach. Czy o nas także o ludziach, którzy słowo w Europie i co już wtedy prowadzi do naruszenia RODO i tych naszych przepisów, także dane dotyczące dzieci i osób poniżej trzynastego roku życia, czego nie można robić? Mówię znowu w kontekście europejskim bez zgody opiekunów prawnych rodziców. No, więc tutaj ten grzech pierworodny, że tak powiem pozyskanie wiedzy ze złego źródła jest jest ciągnie się za tym czatem czy PIT i są różne próby mitygowania tych tych zagrożeń. Natomiast no raz nauczony model tego typu duży model językowy nie może być odtrenowany, trzeba go by zrobić na nowo to nauka. To jest bardzo czasochłonne kosztochłonne zużywa bardzo dużo energii. Tutaj, jeżeli mówimy, mówimy jeszcze o tych zagrożeniach, to, bo dezinformacji mimo wszystko zwrócimy jednak uwagę jeszcze na kwestie energii, bo dużo mówimy o klimacie i co chwila liderzy biznesu i liderze państw ogłaszają w jakimś kolejnym miejscu. Jak bardzo chcą osiągnąć dane cele redukcji, no, a w przypadku tak potężnych systemów komputerowych, które są wymagane tej cała infrastruktura. I tu chodzi zarówno transfer danych, jak i o jako procesory potrzebne zarówno do trenowania jak i używania takiego programu. No to wygląda na to, że raczej przyspieszamy ten proces palenia palenia emitowania CO2 w atmosferę po to, żeby właśnie pobawić się czatem, albo żeby, żeby stworzyć właśnie rozwinąć tą technologię. No ale nie.
Tak jak czyny problem krypto walu.
No tutaj jeszcze nie mamy tych danych, ale to zużycie energii jest naprawić porównywalne, to znaczy zależy, co z czym porównujemy, ale, ale takie takie nawet jedno proste wyszukiwanie. Czy może nie powinniśmy uszkiwanie, ale takie zadanie zadanie wydanie polecenia czy PIT i to po prostu zużywa wielkie wielkiej ilości energii, nieporównywalne np. z tym, co jest używane podczas 1 wyszukiwania w Google, czy wingu czy jakiekolwiek innej nie wiem, dagdago w jakiejkolwiek innej wyszukiwarce, tak więc to jest taka ciemna strona tego rozwoju sztucznej inteligencji. Wiemy, że są też programy projekty naukowe, które dąży do tego, żeby optymalizować ten proces, żeby zużywać mniej energii, ale i PIT i nie idzie tą drogą. To jest trochę tak to jest to jest trochę tak, że to jest naprawdę doładowany niesamowitym silnikiem rakietowym maluch, który, który kopci, choć ocie.
Smog malucha z silnikiem raiem.
I no bo też na tym polegał ten przełom, tak jak tak jak rozmawiam z ekspertami zajmującymi się inżynierią czy właśnie czy właśnie pewnymi obszarami sztucznej inteligencji. To ten przełom był nie tyle naukowy, co inżynieryjny to, że udało się stworzyć udało się wzmocnić ten model językowytek, tak potężną infrastrukturą to tutaj jest efekt tej popularności. Natomiast wracając do tych zagrożeń. No myślę, że to jest taki bardzo bardzo ciekawy moment, w którym się znajdujemy, bo faktycznie już teraz jest także, w zasadzie nie powinniśmy ufać zdjęciom. Już jest już jest także głos już nie jest czymś, co jest trudne do podrobienia. To jest już w zasadzie bardzo proste i to od kilku lat teraz tylko to się demokratyzuje, tak coraz więcej osób może to robić no i zaraz to samo będzie wideo, więc jeżeli pomyślimy, jakie to jest wielkie wyzwanie dla dla ludzkości. I to mówię tak trochę pompatycznie, ale to jest to jest naprawdę wielkie wyzwanie, żeby, żeby umieć w sposób krytyczny podejść do tego, co widzę nasze zmysły.
No powiedziałbym, że mamy głęboki problem z tym krytycznym podejściem nawet i bez tych wszystkich technologkitu nie trzeba dipfeiów nie trzeba zmodyfikowanych zdjęć, żeby wprowadzić nas w pomieszania. Co dopiero właśnie jeśli to by się tak kompletnie wymknęło spod kontroli.
I tutaj i tutaj trochę nie mam odpowiedzi i oczywiście na poziomie regulacyjnym my jako pana optekon apelujemy o to i to prawdopodobnie znajdzie się w tej wersji przyjętej przez parlament Europejskiej, aktu sztucznej inteligencji, aby w przypadku czat botów czy generatorów obrazów wideo czy filmów był obowiązek informowania o tym, że ten, że ten dany dany właśnie za interakcję czat botem. Czy dany film wideo powstał jest sztuczny tak jest fajkiem, natomiast czy oczywiście ludzie będą tak postępować czy firmy czy jakieś agencje marketingowe czy partie polityczne będą faktycznie faktycznie informować o tym, że to jest sztuczne. No tego nie wiemy, to jest na pewno bardzo bardzo łatwe narzędzie. No tutaj jeszcze mówiąc o tych zagrożeniach. No należy wspomnieć o tym potencjalnie największym zagrożeniu, czyli wykorzystaniu tego tych tego typu technologii przez państwa przez władze instytucje publiczne i to to jest. No, jeżeli śledzimy to co różne doniesienia o tym, co co dzieje się w Chinach, ten proces parametryzacji życia ten proces poddawania kolejnych obszarów życia społecznego, indywidualnego politycznego, jeżeli można tak mówić o takim życiu w Chinach w obecnym systemie no on jest bardzo szybki zastraszająco, szybki i na pewno politycy z różnych regionów świata. Myślę, że także u nas w Europie także w Polsce patrzą na to z dużym zainteresowaniem wizja tego, że no praktycznie wszystko co robimy, jest pełni ewidencjonowana, jest tak realistyczna, jak jak nigdy i tutaj tak jak ten końcówka poprzedniego roku i duża część tego roku w tym w tych dyskusjach dotyczących eya i skupiała się na kwestii gpt cza botów. To ja ja bym prognozował, że ten następny duży duży temat to będą technologie, które są w stanie sczytywać nasze fale muzmen i na to też musimy się przygotować, że już niedługo w zasadzie już istnieje taka potrzeba, aby objąć ochroną prywatności. To, co dzieje się w naszych głowach, a to jest tylko jeden z przykładów takich takiego potencjalnie groźnego groźnego zastosowania i do takiego zastosowania, który miejmy nadzieję po prostu będzie w Europie nielegalnej.
No to jest też pytanie, co oczywiście stosuje się nie tylko do kwestii czat botów, ale w ogóle do różnych wirtualnych technologii. Na ile coś takiego jest możliwe do regulacji kontroli na dłuższą metę, to znaczy jak mamy te czaty właśnie czy te boty, które funkcjonują w sieci, no to na jakiej zasadzie my właściwie możemy wyobrażać sobie ograniczanie ich działalności.
Wydaje mi się, że na takiej samej zasadzie na jakiej udało się np. wyrugować powszechnie dostępnego internetu treści terrorystycznenografie, dziecięcą przecież na początku internetu to było niemalże dostępne po po kilkunastu sekundach poszukiwania udało się wprowadzić pewne normy w tym zakresie. I mamy takie zdolności, więc tutaj jestem optymistą i też no oczywiście sztuczna inteligencja to jest ekscytująca i potencjalnie potężna technologia, ale, a tą tak jak wspomniałem, też jest taką technologią, czy czy broń chemiczna, która która, która no bywa rozwijana. Na pewno jest mogłaby być łatwo rozwijana tak niebezpieczne patogeny. To wszystko jest to wszystko jest. Ja.
Rozumiem, rozumiem też filtry, które mamy nakładane na pewne treści np. ale czy myśli, że rzeczywiście taki taki mechanizm, który pozwala np. oddzielać treści generowane przez tego typu struktury od treści przez nie nie generowanych. W ogóle jest wyobrażalny. Czy.
Na poziomie teoretycznym pewnie jest natomiast, jeżeli.
No, bo to bardziej po linii przepraszam, tylko uzupełnię, że po linii jakościowej wydaje mi się można sobie wyobrazić. Takie takie metody, to znaczy rzeczywiście np. będziemy filtrowali treści, które są potencjalnie uznawane za niebezpieczne, albo automatycznie oznaczali treści, tak jak w przypadku nie wiem, teorii spiskowych dotyczących covidu było, że jak nam się wyświetla jakiś twit np. albo materiał w Google, to mamy adnotację, że uwaga to nie jest autoryzowane. Etc, natomiast, jakby na takim głębszym poziomie, gdzie będą te czaty czy te struktury pracować generować różne rzeczy, no np. nie niespełniające tych tych kryteriów niebędące nie wiem, na pierwszy rzut oka groźnymi teoriami spiskowymi albo jakimiś jakąś dezinformacją, tylko po prostu będące jakimiś tworami, które w ramach obsługi jakiś interesów będą wpuszczane w sieć. To ciekaw jestem, czy to w ogóle z wyobrażaalne, żeby to jakoś.
Wykrywać?
No ten problem DIP faigów jest jest na pewno złożony. I tutaj zachęcałbym do takiego myślenia, nie skupipianie się na samej technologii, tylko na Polak zastosowania na kontekście, bo jeżeli jesteśmy wygenerujemy właśnie na własny użytek DIP fake nie wiem ze sobą albo z osob blisko, która robi coś śmiesznego. No zgodzimy się, że tutaj te zagrożenie jest żadne jasne, ale np. jeżeli wygenerujemy dokumenty, które złożymy, potem w sądzie jako dowód, to popełniamy przestępstwo, jeżeli wygenerujemy treści, które mają nie wiem szkalować sąsiada, które nam tutaj skosił. Skosił roślinę, które na, której nam bardzo zależało i teraz będziemy rozklejać ten no to odpowiadamy za zniesławienie np. albo naruszenie dóbr osobistych, a jeżeli będziemy robić dezinformację polityczną, to na to są inne paragrafy i przepisy, więc wydaje mi się, że tutaj po prostu mamy pewne narzędzie, tak jak ja o tym myślę, także już niedługo wszyscy będziemy mieli takie małe własne holywood w smartfonie w komputerze. No to jest tak, że już od dawna możemy oszukiwać nasze zmysły, pokazując rzeczy, które, które nie są prawdziwe, tylko było to dużo droższe, teraz prawdopodobnie w tym obszarze prawdy. No każdy z nas będzie mógł być taką taką fabryką snów, miejmy nadzieję, że to nie będzie fabryka koszmarów, tak, że jakoś sobie jestem poradzimy, ale mimo wszystko jestem optymistą w tym sensie, że no tak jak jesteśmy w stanie poradzić sobie z tym, że ktoś jest nagrany. I ta osoba nie żyje i nie mamy poczucie, że opsujemy z żywą osobą tak, jeżeli to jest nagranie przez 100 lat. Tak myślę, że tutaj też sobie poradzimy w ryzyka widzę, gdzie indziej ryzyka widzę właśnie w no w takim podporządkowaniu tych tych zasad regulacji nowych technologii dużym dużym grupom interesu. I tutaj myślę zarówno o tej stronie politycznej, no to daje świetne narzędzia wszystkim ludziom, którzy marzą autorytaryzmie, a z drugiej strony wielkie korporacje, które oczywiście zainteresowane są tym, żeby, żeby mieć na to monopol, żeby nie powstała konkurencja, żeby nie trzeba było zbyt dużo płacić i żeby no politycy nie robili problemów. I niestety, tak jak obserwuje, to to jak to działa zarówno w Europie, jak i w Stanach Zjednoczonych to te ryzyka są istotne. Tak.
Co na pewno o tym za moment pomówimy, bo już mamy tylko 2 minuty do końca tej części naszej rozmowy, ale o te wątki lobbystyczne bym cię popytał w tej kolejnej części naszej rozmowy i o po jakich liniach te działania lobbystów. Tam idą, jeśli mamy taką wiedzę już teraz, bo rzeczywiście to 100 000 000 USD, o których wspomniałeś jako inwestycja właśnie w lobbing wokół sztucznej inteligencji w Stanach Zjednoczonych. To jest bardzo ciekawe, a to zresztą są często takie środowiska, które pozostają w cieniu, jakby, rozważając różne problemy i rozmawiając o nich najczęściej w ogóle się od tego abstrahuje, że tam jest grupa ludzi, którzy są wyspecjalizowani w forsowaniu określonych rozwiązań. I oczywiście w ich interesie jest to, żeby pozostawali w cieniu, ale można ich trochę wziąć na tapetę. Tutaj za chwilę.
Bardzo chętnie.
Ale zanim jeszcze tutaj zaczniemy tą kolejną część. To ja zapytam czata gpt o to, którą, które z tych zagrożeń uważa.
Za. Najważniejsze.
Z tych 5, o których mówiłem.
Zły, jaki to jest nudziarz, jaka to jest taka jakaś też ładna pozbawiona?
Polo też jest w istocie tak tutaj tutaj tutaj ten poziom, że tak powiem korekty treści czy cenzury czy moderowania tych treści, to praktycznie z dnia na dzień z tygodnia na tydzień w zależności od wersji tak danego czat bota to się to się mocno zmienia. No i tutaj dużo pracy jest na pewno pokrowane, żeby to jest grzeczny.
Tak, to jest po prostu taki anniarz wirtualny moim zdaniem taki wirtualny anasz, który mówi, że wszystkie wymienione zagrożenia są istotne i warto się nimi zajmować.
Wszystkie swoje dzieci kocha również.
Jest przykład.
Dobra anniaszu. Wyłączamy cię teraz informacje i wracamy do rozmowy.
Jesteśmy ponownie na antenie Filip Konopczyński wciąż z nami mieliśmy pomówić trochę o lobbistach, którzy właśnie reprezentują różne środowiska biznesowe zainteresowane w konkretnych regulacjach dotyczących aai. Mówiłeś o zawrotnych sumch, o których już wiadomo właśnie na ten lobbing są wydawane w Stanach Zjednoczonych, jakie oni, że tak powiem, zapisy chcą forsować, czy coś wiadomo właśnie, co jest tam na agendzie u owych?
Lob znaczy czy 100 000 000 to jest. To jest to jest szeroka kategoria. To jest jakby to było na różne cele związane z różnymi aplikacjami. Ay ja np. sektor motoryzacyjnej jest bardzo zainteresowany, ale to jednak jest inny obszar sztucznej inteligencji rozwoju dyscypliny niż niż właśnie czat. Boty czy te duże modele językowe, więc to jest taka z sumowana sumowana kwota, no ale to, co to, czego chciałby sektor firmi, to mogliśmy m.in. usłyszeć, słuchając sama Altmana kilka dni temu w kongresie, to znaczy przede wszystkim chodzi o to, aby no jak wiadomo Biznes zazwyczaj chciałby się sam regulować i we własnym gronie podejmować. Tak strategiczne decyzje, co w pewnych obszarach może dobrze działać, no ale wiemy, jakie są wielkie zagrożenia, to znaczy jakieś zmowy zmowy, że tak powiem dążącej do tego, że po prostu jak najmniej płacić za nic nie odpowiadać. I najlepiej jeszcze wyrzucić potencjalną konkurencję taką, która, któremu mogłaby powstać, więc no to jest ten pomysł tak w Stanach te kwestie regulacji sztucznej inteligencję one są podnoszone nawet Trump tram publikował i dokumenty i jakieś jakiegoś nierozorządzenia. W tej sprawie Baden zrobił to samo natomiast jest to bardzo rozproszone, te strategie nie są spójnie wspólnie wprowadzane w sensie każda agenda rządowa ma ma jakąś swoją swoją strategię działań. I tutaj ta konstytucja ta, a bilo frraid, który zapowiedział bajny, no to to jest jednak to nie jest dokument, z którego można bezpośrednio korzystać, więc to jest takie trochę rozmyte. No oczywiście w interesie tych firm, które, które dopiero walczą o to, żeby zająć te pozyc lidera w Europie. Sytuacja jest trochę inna, także, dlatego że zarówno zaletą jak i wadą modelom ukraińsk amerykańskiego jest to, że te pieniądze płynące do polityków one są przejrzyste w dużym stopniu, to znaczy może sobie wejść na stronę obejrzeć. Le dane polityk, od kogo dostał no i to nie jest korupcja, tylko to jest właśnie lobbing w Europie. To jest to jest nieco bardziej hipokryckie, bym powiedział, ale też wiemy m.in. takiego raportu o bardzo fajnej nazwie goust ide lobbing goustin, demashiin o copet eub obserwatorii, który pokazywał jak m.in. alfabet, czyli Google Microsoft pod koniec zeszłego roku, ale, ale także już w tym roku. W tym samo momencie, kiedy mówiły, że są potrzebne, no regulacje dedykowane tej właśnie generatywnejsz inteligencji czy tej czy tej in tej sztucznej inteligencji ogólnego przeznaczenia? Czy teraz jak się mówi modelom podstawowym, bo to się cały czas zmienia. Jednocześnie otwarcie mówi o tych właśnie potrzeby potrzebie tworzenia normetycznych. I oczywiście tym, że oni są bardzo zaregulacjami, a po cichu bezpośrednio kontaktują się z urzędnikami z politykami, no prowadzili zmasowanej działania lobbystyczne, żeby takich regulacji w ogóle nie było tak czy liczby nie było takie kategorie. Jak jak jak te generaty, jak np. generatywne sztuczne inteligencja, czyli modele podstawowe i znowu rozumiem intencje biznesu, wiadomo, że celem biznesu jest to, żeby generować ze zglakcjonariuszy. Natomiast no dysproporcja między tymi środkami zasobami i też kompetencjami takimi często technicznymi między politykami biznesem, a społeczeństwem jest naprawdę bardzo duża. I to jest bardzo przykre całe szczęście, także dzięki właśnie duże duże pomocy bym powiedział mediów, ale także po prostu temu, że to, że to ludzi interesuje i chcemy o tym rozmawiać. No udało się poprawić te regulacje przynajmniej na poziomie europejskim i wszystko wskazuje na to, że, że jesteśmy w dużo lepszym miejscu, bo ten akt sztucznej inteligencji w obecnej formie on będzie głosowany pewnie 14 czerwca w parlamencie europejskim. On jest dużo lepszy niż to, co co było 2 lata temu i my jako obywatele będziemy mieli więcej praw z tym związany będziemy mieli prawo np. do odwołania się od decyzji, którą podejmie wobec nas i będziemy mogli w przypadku systemu wysokiego ryzyka dowiedzieć się w ogóle, dlaczego ta czy inna decyzja została wobec nas podjęta, będziemy mogli. To jest bardzo ważne liczyć na to, że firmy, które będą stosować ea i w takich wrażliwych obszarach tzw. wysokiego ryzyka będą musiały sprawdzić, czy te systemy nie tworzą dużych zagrożeń dla dla praw podstawowych dla naszych praw, czyli właśnie tej prywatności, czyli bezpieczeństwa, czyli zdrowia itd. itd. więc zmierzamy w dobrym kierunku, no ale przynajmniej jeszcze kilka lat nie wiemy będziemy wyjaśnienia, czy to jest skutecznesna.
Jest jest też cały czas ta kwestia chyba tajemnicy handlowej istotna to znaczy tego, że do końca także z uwagi na tajemnicę handlową. Nie wiadomo, jak to działa znaczy w ogóle nie wiadomo.
Jeszcze nie tylko no właśnie o to chodzi tak tylko jeszcze naukowe tutaj są spory. Czy.
W ogóle w ogóle zaarcz na się wytłumaczyć tak tak w ogóle nie wiadomo, jak to działa, ale jeszcze jest dodatkowo także firmy, które wprowadzają takie rozwiązania, też mogą utajniać w ogromnym stopniu sposób np. przetwarzania danych czy jakieś inne tego typu kwestie. To jest np. coś takiego, co kilkukrotnie już podnoszono przy okazji takich narzędzi opartych właśnie na takim przetwarzaniu danych. Jak to robi czat gpt, które są stosowane w sądownictwie w Stanach Zjednoczonych, np. to znaczy są to programy wspomagające sędziów, którzy.
Podejmujemy Ministerstwu Sprawiedliwości w Polsce, także zapowiadały, przygląda się technologiom, nie na szczęście w orzecznictwie, ale w sortowaniu spraw i pismo, które wpływają.
No wystarczy są przecież takie narzędzia, które w Stanach decydują o tym, kto ma szansę na zwolnienie warunkowe. A kto nie poprzez analizę szczegółową pewnych danych właśnie tylko nie wiadomo, jak one to robią do końca, to znaczy nie ma informacji. Przepraszam o tym, w jaki sposób właściwie ten program akurat typuje te, a nie inną osobę. No właśnie, dlatego że firmy, które się tym zajmują, mają tajemnicę handlową i nie muszą tego ujawniać, więc to też jest w ogóle bardzo ciekawy.
Błąd ten ten obszar przejrzystości i transparentności, a także jest także w Europie, będzie będzie inny, ponieważ no wszystkie np. instytucje publiczne, które będą korzystać z systemów ei w obszarach wysokiego ryzyka będą musiały to publikować 1 centralnej bazie danych prowadzonej przez komisję Europejską, więc to jest to jest coś, co będzie i tam będą też podstawowe informacje, tam będzie tam będzie wynik tej analizy, jakby podsumowanie tej analizy dotyczącej zagrożeń dla praw podstawowych. No, więc to będzie na poziomie europejskim robione także duże firmy duże Platformy, te takie największe, które działa w Europie, też będą miały tak obowiązek, ale niestety nie wszystkie firmy i nie wszystkie informacje o tych właśnie ei wysokiego ryzyka, czyli np. w medycynie, czyli np. w pracy. Tak, jeżeli ea będzie nas rekrutować albo zwalniać, to także jest obszar wysokiego ryzyka w obszarze migracji w policji w sądownictwie w procesie demokratycznym, gdzie ta technologia może przynieść pewne pewne korzyści. No ale pod bardzo wieloma warunkami może też spowodować bardzo wiele szkód, więc wprowadzane są takie takie przepisy, no ale właśnie tak firma nie chciałaby oczywiście, żeby, żeby tylko kod wycieku konkurencja nie śpi, więc tutaj ja bym oczywiście wolał, żeby tu bardziej transparentne. Ja nie jestem przekonany, czy właśnie algorytm to jest coś, co powinno być tak całkowicie objęte tajemnicą własnością intelektualną, bo po prostu żyjemy żyjemy w czasach, w których no takie stare zasady dotyczące tego, jak działał właśnie kapitalizm. Nie wiem 30 40 lat temu one mogą być szkodliwe i to nie chodzi o nie chodzi o jakieś ideologiczne podejście tylko być może tak jak tak jak w przyszłości pewne rzeczy uznawaliśmy, że jednak są za ważne, żeby nie wiem, straż pożarna, przecież w Stanach także w pewnych momentach była prywatna. Jednak uznaliśmy, że tu może nie jest najlepsze obszary do zarabiania pieniędzy, bo jeżeli firmy rywalizują ze sobą o to, który dom będzie, który dom podczas pożaru tak, kto da największą stawkę no to po prostu jest szkodliwe także dla innych domów, bo potem to się to się roznosi. I tutaj ta analogia jest myślę jakoś tam zasadna, natomiast no przede wszystkim tak chciałbym zaapelować, żebyśmy nie dali się zastraszyć, to nie jest tak, że jesteśmy właśnie u zarania powstania jakiegoś nowego bytu, to cały czas mówimy o jakiś takich bardzo zaawansowanych maszynkach analitycznych. To jest taki eeksel na sterydach. Nie wiem, czy pamiętają państwo spinacza klipiego ze starych.
Pamięta entuzjastycznie.
Reaguje. No to jest małe do czynienia takim z takim właśnie naspidowanym czy właśnie wzmocnionym będącym na styrydach? Czy to jakieś inne analogii może znać, ale spinaczem tak to nie powinniśmy tego tak łatwo uczłowieczać. Natomiast oczywiście jest wiele obszarów, w których których to może wywołać dobre zmiany i tego też nie możemy tracić na uwadze, to znaczy eya jako np. technologia, która wspomaga diagnostykę, że coś tego bardzo potrzebujemy. To nie nie ma.
Na pewno tak to jest też zresztą takie pole, które zastosowania, które, które bardzo jest obiecujące. No.
Niesamowite i to coś.
Na koniec pomówmy o konstruktywnych właśnie.
Kwestii stoimy przed ja tutaj jestem szczególnie zainteresowanie tym obszarem, no właśnie zastosowanie tych tych dużych modeli językowych do analizy tego, co dzieje się w naszych głowach, bo to jest jedne z tych ostatnich wielkich tajemnic na ziemi, przed którymi stoimy jako stoimy jako gatunek. Tak i widzę bardzo wiele zagrożeń, ale to jest fascynujące, że pojawiają się takie takie takie technologie, które no jakoś zbliżają nas do zdekodowania tego, jak wygląda proces Poznania, co się dzieje między tym, jak postrzegamy rzeczywistość, a to jak konstruujemy tożsamość, co jest w efekcie odczuwamy jako świadomość jako naszą osobowość. No to są obszary bardzo ciekawe zagrożenie jest bardzo dużo i powinniśmy po prostu po prostu to twardo regulować, ale no, jeżeli nie wierzę, że nie jesteśmy też zainteresowani tymi tymi aplikacjami i na pewno żyjemy fascynjącym momencie. I tutaj tutaj myślę, że myślę, że wiele wiele osób, które fascynowało się nie wiem, fantastyką naukową ludzi, którzy były tego tematy, no mają, w czym teraz przebierać. Tak ciężko jest oczywiście rozeznać to, co jest prawdą, a fałszem co jest hajpem, co jest reklamą, co jest przesadza przesadą, ale, ale no nie wyobrażam sobie np. sytuacji, że ktoś może się nudzić.
Uda się już są prawda.
To prawda nadeszła epoka braku nudy bez wątpienia.
Bardzo ci dziękuję za to spotkaniem i za rozmowę Filip Konopczyński z fundacji pan optyką był państwa gościem, no a teraz będą informacje, a po informacjach o wątkach ezoterycznych będziemy rozmawiali magii o kultyzmie apokalipsie w narracjach rosyjskich generowanych. Wciąż jeszcze przez istoty ludzkie.
Pracuję o algorytmy białkowe.
Aż z algorytmy białkowe. Zwiń «

PODCASTY AUDYCJI: MAGAZYN FILOZOFA - TOMASZ STAWISZYŃSKI

Więcej podcastów tej audycji

REKLAMA

POSŁUCHAJ RÓWNIEŻ

REKLAMA

DOSTĘP PREMIUM

TOK FM Premium 40% taniej. Radio TOK FM bez reklam, podcasty z audycji i podcasty tylko dla Subskrybentów.

KUP TERAZ

SERWIS INFORMACYJNY

REKLAMA
REKLAMA
REKLAMA