REKLAMA

Elon Musk ostrzega przed bronią ze sztuczną inteligencją

Połączenie
Data emisji:
2017-08-23 14:00
Audycja:
Prowadzący:
Czas trwania:
23:24 min.
Udostępnij:

AUTOMATYCZNA TRANSKRYPCJA PODCASTU

Transkrypcja podcastu
in o włączenie ich różni od gór i 14 6 Jakub Janiszewski przy mikrofonie ze mną studia goście dr Aleksandra Przegalińska filozofka oraz Akademii Leona Koźmińskiego Massachusetts Institute w te należy, więc dobre i w innych krajach i Zuzanna Warso z Helsińskiej fundacji praw człowieka dzień dobry dzień dobry będziemy rozmawiać o dość specyficznym apelu magistrze, którego główną twarzą takim prowodyrem takim motorem, który ciągnie całość jest Elon Musk szef Tesli, Rozwiń » a także 1 z takich umów z głównych postaci czegoś się rodziło wzbogacili alfabetu czy Mustafa Sulejman ten list nawołuje, ale narody Zjednoczone nawołuje, by wszystkie instytucje ponadnarodowe Supra Narodowym zajęły się kwestią sztucznej inteligencji używanej w systemach nie w systemach wojskowych systemach, które nazywa się systemami obronność tak na pewno tak na dobę rozszerzone mogą służyć do ataku no to na co próbuje zwrócić tutaj Elon Musk no to gigantyczne ryzyko gigantyczne koszta polskiej stronie wprowadzenia tak jak takiej technologii rozwoju tej technologii rywalizacji na tym polu w to co tutejsze akcentują bardzo mocno, że to byłaby w zasadzie kolejna rewolucja po wynalezieniu prochu w tym jak się prowadzi wojny natomiast już po tej po tym, apelu dla nas od razu pojawiły się takie głosy, że w zasadzie po pierwsze, sprawa jest poruszona za późno, bo takie systemy już istnieją też przywołuje system Samsunga, które zostały postawione granice między Koreą południową północną, które są już w zasadzie automatyczne oraz bardzo zaawansowane badania nad czymś co się nazywa karani zdrową prowadzone przez NBA i Systems, czyli brytyjską jakąś instytucję, która rozwijała drony automatyczne re i cnotach właśnie to pytanie co znaczy czy my w zasadzie mamy do czynienia z apelem, który pojawił się za późno czy za polem, które być może w ogóle nie jest taktycznymi twierdzi rząd brytyjski potrzebny, bo regulacje wystarczają wcale nie musimy tych regulacji, które do hamują rozwój dziś śmiercionośnych broni nie poszerzać kolejne punkty umieszczone są już tak spójnej tak zwarte, że w zasadzie nam, dostarczając może zacznijmy od tego pytania prawnego jak to jest w zasadzie popatrzeć na regulację z punktu widzenia ochrony praw człowieka jej prawa humanitarnego utworzenie tej samowoli szereg wątpliwości z 1 strony może powiedzieć, że istnieją ogólne zasady prawa humanitarnego, która powinna mieć zastosowanie w tym przypadku i powstaje pytanie czy w ogóle takie nowe systemy do tych zasad przystają na myśli ambitne nakaz rozróżniania pomiędzy ludnością cywilną a, a nie, a walczącymi żołnierzami oraz drugą zasadę, czyli zasadę proporcjonalności to są podstawowe zasady jeśli prawa humanitarnego prawa konfliktów zbrojnych i m. in . się Rights Watch, która o tym, organizacja zajmująca się prawami człowieka ze Stanów zjednoczonych od już co najmniej paru lat podnosi na argumenty i apeluje właśnie do ONZ -u, żeby przyjęła traktat, który zakazywałby i rozwoju tego typu technologii, ponieważ wtedy te technologie po tych technologii nie da się pogodzić z przyjętymi zaakceptowanym mi zasadami prawa humanitarnego Pm nie tylko prawa humanitarnego zresztą, ale także zasadami prawa i praw człowieka tak międzynarodowymi traktatami ochrony praw człowieka, które mają zastosowanie tylko w czasie wojny, ale także w czasach pop w pokoju mówi się temu o tym, że tego typu system wnuczka nie da się pogodzić się z prawem do życia takim zakazem takiego samowolnego arbitralnego pozbawiania życia ARM także oprócz wątpliwości moralnych te systemy budzą także szereg wątpliwości prawnych i oczywiście niektórzy stoją na stanowisku mam wrażenie, że właśnie na tym stanowisku stoi rząd brytyjski istniejące reguły da się jakiś sposób dopasować do tego co tu powstaje natomiast inni m. in. właśnie organizacje pozarządowe zrzeszone w takiej kampanii około kilkudziesięciu kilkudziesięciu organizacji mówią, że potrzebny nowy traktat, żeby jasno powiedzieć, że ten typ technologie nie powinien być rozwijanej wdrażane także, by nikt nie miał wątpliwości co do tego czy to się da pogodzić z 10 nie da pogodzić także z punktu widzenia prawa taki taki tak jest stąd formułowane argumenty jak na to patrzy filozof, który zajmuje się nową technologię no ja oczywiście tutaj mamy szereg różnych takich chyba chaotycznej splątanych myśli na ten temat z 1 strony oczywiście także my wszyscy, którzy zajmujemy się na inkubacji najnowszych technologii czy pracujemy sztuczną inteligencję doskonale wiemy że, że wojsko jest tym obszarem, którym rozmaite nowe technologie testowało i dawało prawda i potem, ale były też z sukcesami z powodzeniem komercjalizowane stawały się dostępne dla szerokiego społeczeństwa i część z nich już w przeszłości również budziła w jakiś tam zastrzeżenia nawet szarpane, czyli protokół internetowy prawda pierwszy w zasadzie było w pewnym sensie krytykowany wydawało się, że może być potencjalnym narzędziem inwigilacji, które się notabene w jakimś sensie zdał, ale z drugiej strony ma też szereg innych prawda korzyści społecznych, które gestu, który trasę czerpiemy podobnie zbiornikowiec ze szkieletami, które są teraz medycy nieużywanej podobnie jest również z dronami jest to słynna przecież tak ad 4 to możesz powiedzieć o tym jak to DARPA amerykańska agencja wojskowa złożyła bardzo dużo środków na Boston Dynamics firmy, która tworzyła takie roboty właśnie drony potencjalnie bojowe, które miały tam przenosić ładunki i t d. okazało się, że za głośno topią, ale za to fenomenalnie nasz nadają się do ETA magazynów Amazona do przenoszenia różnych paczek i t d . to jest bezmyślna rozdzieli miejskie legendy, ale tym, niemniej w tym co tak się rzeczywiście działo to czy w przyszłości wojsko już taką rolę można powiedzieć pensji się technologicznego lidera, który ponosi największe ryzyko Banaszka biznes nie chce go ponosić albo znak dla biznesu za wcześnie tego typu inwestycje wysokiego ryzyka w UE i które jakby stanowisko instancji pierwszego testu, który musi Super dbać mocno zabezpieczenia rozmaite targi technologii on, a więc wojsko to rolę pełniło im potem te technologie faktycznie się jakiś interesujący sposób komercjalizować młyna gości jest programem kosmicznym też stracha podobnie w tym sensie, że mamy do czynienia z inkubacji ze środków publicznych głównie na pod kuratelą właśnie darty jakiś tam rozmaitych rozwiązań, które potencjalnie mają służyć do eksploracji kosmosu, ale tak naprawdę wiemy, że część z nich zostanie wykorzystana w trudnych warunkach jeśli coś się będzie działo na ziemi jakaś katastrofa kataklizm cokolwiek część tych technologii może być tutaj wykorzystana, więc znajdzie też ścieżka z powikłanym z praw dajemy im widziano jako umknął ktoś zamierza się inteligencją za to brać pod uwagę, że wojsko wiele dobrych rzeczy w tym sensie zrobiło, ale z drugiej strony może się przydać ja sama jestem sygnatariusz 1 z takich właśnie tych dokumentów organizacji w świecie for Life, która właśnie przede wszystkim zrzesza ludzi, którzy z Towarzystwa rozmaite, które zajmują się sztucznymi z inteligencją nowymi technologiami tak dalej będzie na nim myśmy jednak apelowali o to, żeby przynajmniej na chwilę się zatrzymać, bo mamy tutaj do czynienia z taką sytuacją, która wg mnie wymaga szerszej debaty tutaj, by przed wejściem na antenę rozmawialiśmy sekundę o klonowaniu prawda i taka dyskusja rzeczywiście dysza była też można powiedzieć, że z punktu widzenia rozwoju technologii czy gotowości technologicznej ona była za późna, bo już wiedziano jak to robić, ale nie znaleźli i chodziła po świecie nie dali chodziła dawno poświęceniem już nikt nie ma oba w nawet z tego świata po tym, jak to się stało, ale ta dyskusja się odbyła ją efektywnie, chyba że wciąż nie wiemy zawsze możemy uruchomić o tej wadzie takie spiskowe myślenie w PRL, ale co do zasady jest raczej także ten program nie został ułaskawiony i nie jest także wszyscy mamy też swoich sołdatów w tej chwili albo, że nasze zwierzęta mają swoistą droga, chociaż nie zdaje, że tam już dziś preludium do otworzenia tego programu się zaczyna być jest podobna sytuacja to znaczy sytuacja taka, że technologicznie jest za późno, ale w wymiarze właśnie społecznym czy politycznym tej debaty myślę, że za późno nie jest to dobrze żona się odbywa inicjuje ją iloma w tym sensie, że nasze staje widoczna dzięki niemu, ale jak rozumiem to znacznie wcześniej rozmaz organizacje te kwestie podnosiła po prostu tak LM to nie wspominam wśród tych właśnie prawników prawnicza tak aktywistów zajmujących się kwestią technologii praw człowieka ten temat CRM już pojawił się parę lat temu także te wysiłki teraz teraz zwróciło uwagę może dzięki temu celebryckie mu elementowi natomiast nie jest to zupełnie nowa debata i nawiązując do tego co zostało powiedziane wdają się, że tak z 1 strony ciągle powtarza się, że prawo nie nadąża za technologią w zasadzie ta ta gonitwa jest rozpisana na porażkę w bazie sztuczna inteligencja zacznie pisać ironią tragedią przyznaje się znacznie wtedy będziemy mogli w ogóle zrezygnować z wyższych stóp o udział w czymkolwiek natomiast no to nie jest powód, żeby chyba chyba się poddawać i mogłabym przestać próbować także, a także te wysiłki są podejmowane takie właśnie przykład klonowania pokazuje, że klonowania byłbym rad produkcyjnego w ludzi i tak oto góry wie co do co do tego, iż istnieje jednak szeroko przyjęty konsensus i że jest to zakazane i i raczej nie ma miejsca oficjalny, a on, nawiązując jeszcze do tego postęp oddech technicznego Lotos też często się, mówi że technologia czy technologia nie jest ani dobra ani zła tak niektórzy mówią, że ten nie jest neutralne natomiast te wydaje mi się, że właśnie należy zastanowić czy w tym przypadku nie mamy jednak do czynienia z taką, jaką ścieżką rozwoju technologii, która jednak jest jedno jednoznacznie zła i w związku z tym należy je oficjalnie zakazać jej w traktatach i do tego wrócimy po informacjach z 1 4 o 17, ale on włączenie ich recykling Olsztyn 14 2 4 Jakub Janiszewski przy mikrofonie ZOMO studio Aleksandra Przegalińska Zuzanna Warso rozmawiamy o apelu podpisanym przez zainicjowany właśnie teraz przez Iwana maska w sprawie zablokowania badań nad sztuczną inteligencją wykorzystywaną do systemów służących do zabijania w zasadzie tak może sprawę postawić tutaj padło takie stwierdzenie czy klient przed chwilą Zuzanna Warso opowiedziała czym można powiedzieć, że ten kierunek technologiczny to w tej chwili obserwujemy staje się w pewnym sensie jednoznacznie złe myślę, że to jest gratka takie stwierdzenie dla kogoś, kto się zajmuje w Miechowie jest on ani centa jest to pytanie muszę powiedzieć strony takim czysto ludzkim poziomie no po prostu trudno się nie zgodzić robota aplikacja ma oczywiście jednoznaczny cel zabijania anihilacja prawda ludzi i to bez użycia w człowieka z jego moralnej, jakby tutaj też za to odpowiedzialność w jakim sensie zawieszony winne temu z innego no i zwinnym, ale takim powiedziałbym daleko odsłoniętym, gdzie można ostatecznie powiedzieć, że to system podjął złą decyzję prawda, więc to jest namnażanie rozmaitych problemów etycznych myślę z tym związanych tylko, że ja mam wrażenie, że bardzo trudno jest odseparować tę ścieżkę znaczy ścieżka rozwijania systemu, który autonomicznie podejmuje decyzje w obszarze dowolnym od tej konkretnej aplikacji znaczy myślę, że takie pytanie, które my wszyscy, bo musielibyśmy sobie zadać test na ile w tworzenie rozmaitych systemów, które najpier w wspomagają pomaganie wspomagają podejmowanie decyzji, a potem same podejmują decyzje czy autonomicznych różnych definicji piernikowych serc i systemów i programów na ile ono mocno jest skorelowane z tym obszarem albo na ile jeśli ono będzie rozwinięte to gdzie będą bariery, żeby ono nie było w tym akurat obszarze jest fanem tutaj mamy do czynienia z głębokim paradoksem, że to ile Musk to ten apel wystosował na Iran iloma jest rzeczywiście postacią no fascynujące paradoksalną myślę, bo no, bo z 1 strony niewątpliwie także on sam nie tak dawno porwał inicjatywa opel jaj celem tej inicjatywy jeśli dobrze ją rozumiem nie jest jednak wyhodowanie jakieś formy generalny sztucznej inteligencji przymiarka do tematu w świadomości podmiotowości GM nowa na razie chodzi tylko o to, żeby to było transparentny system rozwijania sztucznej inteligencji, do którego każdy, kto czuje się na siłach dokłada swoją cegiełkę, ale oczywiście co do zasady wiadomo, że no no chodzi tutaj jednak system mocniejsze im jak jeśli chodzi o inteligencję mocniejszy niż to co co wiemy co co mamy do tej pory CEZ oparty na zwykłym uczeniu maszynowym także na dno z 1 strony oczywiście chodzi obudowę takiego systemu ZUS jeśli taki system powstanie to sfera jego aplikacja może być bardzo szeroka i właściwie nie ma przeciwwskazań, żeby ktoś to przechwycił Macierz tez otwarte prawda jakiś rząd typu Korea Północna przepraszam, że straszy tutaj wprawę żelaznym wilkiem no ale chyba nie bez kozery, który do przechwycili właściwy do takiego celu może to wykorzystać benzyny znacznie mniejszym nakładem środków finansowych po po swojej stronie, a te bardzo ciekawe pytanie czy można odseparować rozwój danej technologii tango potem zastosowania konkretnych obszarach i wydają się żyło się tutaj jest rola prawa w pewnym stopniu, żeby z 1 strony umożliwić rozwój technologii rozwój sztucznej inteligencji szeroko rozumianych systemów IT z takim założeniem, że trudno jest to zatrzymać nie jest to w zasadzie nierealne tak też nie mnie nie byłoby chyba my słuszne natomiast potem czy stosujemy też sztuczną inteligencją n p. w obszarze wymiaru sprawiedliwości czy na wojnie Lotto to już jest pytanie, na które wydaje mi się prawo takie wytyczne związane z ochroną praw podstawowych praw człowieka może może zaproponować parę rozwiązań tak Bernd niektóre obszary zastosowania sztucznej inteligencji wydaje mi się budzą mniej wątpliwości jest Tomasz niż inne i tak jak nasz rozmawialiśmy kiedyś o tym, że w obszarze wymiaru sprawiedliwości tak, kiedy n p. sędziowie używają tych systemów ERP sztucznej inteligencji czy właśnie się cieczy czy jakichś algorytmów takich, które podejmują decyzje niejako zanikną tutaj im możemy zadawać pytania tak czy decyzja, która wpływa na na czyjąś wolność się powinna być podejmowana przez nasz rano, tym bardziej można zadać pytanie czy decyzja o życiu śmierci powinna być podejmowana przez maszynę więc, więc wydają się, że wyprawa ma rolę do odegrania właśnie w wytyczaniu tych granic czy starać się wytyczyć granicę no bo znowu prawo nie jest idealny i że to jej jest idealnym narzędziem to, że prawo czegoś zakazuje oczywiście nie oznacza, że Północna Korea tego nie nie będzie robić tak natomiast znaną w stworzenie pewnych ram, w których których państwa czy biznes czy 3 jednostki mają się poruszać wydają się, że jest już bardziej realnym tak celem do osiągnięcia w razie ja powiedziałem rzekł krótko wymalować je można porównać sytuację to sytuacji związanej z wykorzystaniem broni atomowej inż. Mariusz Mrozek lider TBL to możemy sobie w zasadzie uzmysłowić, ale właśnie krótko falował co się mniej więcej będzie działo wręcz stworzony pewien zestaw regulacji w na pewno będą wg lekarzy w tym całym systemie, którzy będą łamać te zasady i oczywiście będą szli dalej niż pozostali pozostali będą w tym momencie w jakiś nacisk prawda stosować na nich, żeby ten typ pracy zatrzymać, więc właściwie możemy się mniej więcej spodziewać co uzyskamy, ale to nie jest mało w tym rzeźba to już jest niewątpliwie coś na biznes długofalowo w tej całej dyskusji jeszcze jest podnoszona kwestia taka ziem nijak to znowu nie chce straszyć, bo ja w ogóle nie lubię takich obrazków, ale Terminator za bardzo i uważam, że to nie pomaga nam wcale lepiej pracować i zmobilizować, żeby ta sztuczna inteligencja była jak najlepsza najbardziej Anno pożyteczna dla człowieka, ale długofalowo też kontekście tego problemu Ernst tworzenia od autonomicznej broni ME, która może być potencjalnie no naprawdę się śmiercionośne dla ogromnej grupy populacji może mieć do czynienia z systemem, który będzie autonomiczne również takie zaś, że będzie autonomiczny od rządu Korei od rządu USA i od dowolnego innego rządu i regulatora i ONZ tutaj jest kolejny plan w marcu sztuczna inteligencja jest bardzo specyficznym obszarem, w którym jest tygrys pole minowe, które bardzo wiele zagadek i taka główna zagadka myśl, która dotyczy tego systemu to jest coś stanie, kiedy się wymknie spod kontroli co się stanie, kiedy on zacznie podejmować samodzielne decyzje, które nie będą zgodne z życzeniem tego, kto chciałby tę decyzję na taki system delegować MD prawda czy jakiegoś nawet tacy jak dziś jakiś agencji obrony jakiegoś kraju, który jest w konflikcie no to jest duża sprawa w tym przeraża to właśnie przepraszam ale, zakładając właśnie ten TOK rozumowania czy konsekwencją nie powinno być jednak założenie, że ten ta technologia nie powinna być rozwijana, a ja bym powiedział tak jak ja mam teraz w ogóle tak generalne taktykiem ostatnio na refleksję, że podstawową rzeczą, którą człowiek w tej chwili, zwłaszcza powie ktoś zajmie sztuczna inteligencja powinien zrobić oczywiście regulacje ja doceniam regulacji zawsze szalenie ważna jest to, żeby doskonale zrozumieć systemy, które budujemy to znaczy bez zrozumienia istoty tego co się dzieje w Busha w uczeniu maszynowym, jeżeli twórcy systemu AlphaGo, który wygrywa jest bardzo zaawansowanym systemem do jury w tradycyjną chińską Greg go i wygrywa z mistrzem świata walnie wygrywa mówią, że nie wiedzą co się stało z kutej czarnej skrzynki mówią możemy modelować te procesy możemy uzyskać efekty, które wszczęliśmy możemy wytrenować można fenomenalnie, żeby ona wygrywała z człowiekiem, ale w to co zachodzi w środku ten proces leczenia jest dla nas jakby odsunięty właśnie czarną skrzynkę z chaotycznych to ja w tym momencie podpisuje się pod apelem niedawny wpis na ławie, który powiedział teraz wszystkie po prostu wszystkie nasze wysiłki powinny być skierowane w tą stronę, żeby doskonale zrozumieć uczenie maszynowe to co oczywiście nieodłącznym elementem tego jest też rozwój neuronauki zrozumienia własnego mózgu, więc się podział, żeby kontrolować te procesy długofalowo musimy naprawdę w tej chwili przeszło, żeby je zrozumieć, bo jeździmy będziemy tworzyć coś co jest dla nas zakryte to myślę, że te ryzyka wzrastają ogromnie GI i w zasadzie to dotyczy w ogóle par excellence programu sztucznej inteligencji, a w tej konkretnej aplikacji na szczególnie daleki jest jeszcze 1 wymiar, który niestety chyba nam nie może umknąć to znaczy wymiar polityczny, jeżeli przeniesiemy tam dyskusje na doświadczenia z systemami jądrowymi to niestety się okaże pewne, że dla całego szeregu państ w UE inwestycja opłacalna znaczy skoro nikt się dzisiaj tak nie patyczkował, gdyby tej broni nie miała, gdyby Muammar Kaddafi w porę nie zrezygnował z budowania swojego systemu atomowego to być może nie był nie mielibyśmy sytuację w Libii tak to znaczy być pewnym poziomie to jest po prostu opłacalne w grze politycznej, więc w pewnym sensie się zgadzam z tymi, którzy mówią, że trochę jesteśmy na przegranej pozycji, bo to będzie szło naprzód i niechęć ta analogia do budowy broni atomowej jest jest taka 1 1 czy tak tak możemy się jej utrzymanie stąd rozbieżność domaga się wydaje mi szczerze, że można n p. mówić o zakazie używania tzw. oślepiający laserów tak która, o ile się Niemna jest 1 z protokołu nie jest uregulowany 1 z protokołów do do konwencji o użyciu broni konwencjonalnej nie jest skutecznym w skutecznym zakazem tego typu broń nie jest używana także ja lubię analogii, ponieważ żona trochę przedstawiają nasze myślenie o tym co wydaje się jednak rzut oka totalnie nowe natomiast też zastanawiałam się jednak czy 3 czy tą ścieżką powinniśmy tak daleko iść natomiast, nawiązując do tej właśnie kwestii transparentności zrozumienia tego tego co się dzieje w tych czarnych skrzynkach ja jestem jak najbardziej za i ty jesteś taki postulat właśnie związany z ochroną praw człowieka, a także, że powinni, że jeśli decyzja dotycząca naszego życia, a odnośnie naszego losu jakikolwiek sposób jest podejmowana przez maszynę w cudzysłowie, jaką kolega to powinniśmy wiedzieć, jakimi kryteriami ta maszyna się ta maszyna się kieruje i w jaki sposób to decyzja jest odejmowana leczyli to prawo takie do wyjaśnienia do otrzymania uzasadnienia już już istnieje natomiast z tego co z tego co ja bym obserwuje to właśnie osoby kosztująca te maszyny, konstruując te lata algorytmy, posługując się sztuczną inteligencją coraz częściej mówią właśnie, że oni sami nie wiedzą jak to jak to działa rzezie żelazo zawartość tej czarnej skrzynki jest jest tajemnicą, że pewne dane są wpuszczane pewne dane otrzymujemy rezultaty natomiast co się dzieje pomiędzy GMO nie jest nią nieodgadniony pytania powstaje czy wobec tego w ogóle tego typu rozwiązania powinny być używane w obszarach życia, które mają jednak duży wpły w na betonową prowadzi nas do takiego pytania czy w ogóle powinny być używane lobbing tak, ale ja też bym tak przed przekornie drwiny może powiedziałbym, że w zasadzie tak też nie wiem jak działa nasz mózg, a jednak stosują oni muszą jednak zrealizować zwolniłam trochę jak zrezygnować oczywiście nie ma żadnej instancji Odwoławczej chyba natomiast na nie wiemy czy rzeczywiście ten mózg działa jak decyzje są podejmowane nie do końca wiemy jak przebiega proces myślowy schemat z Izraelem jestem mam tutaj mamy rzeczywiście wejście też, jakby jest taka szansa na to, żeby nad tym procesem zapanować dlaczego, bo kompleksowość tego kryzysu jednak jest nadal dużo mniejsza niż to co zachodzi w ludzkim mózgu nawet się zimą sztuczne sieci neuronowej jest jednak system znacznie prostsze i rano, by tak pan wszystkie ślady, które do niego docierają są jakoś tam identyfikowalne imprez w naszym przypadku kompleksowość tych bodźców i t d . jest jest jest jednak za dużo, więc jak powiedział, że zgadzam się z Latą może trwać tak obserwacją, że coraz więcej osób mówi no zrobiliśmy straszną rzecz, że mamy 9 4 % nieadekwatne maści tej decyzji, ale i rośnie i 9 7 za chwilę i ta sieć naprawdę zwróciła się świetnie trochę mniej jak to się stało po prostu tam sam pan linijek kodu jest, ale też mam z drugiej strony takie wrażenie, które na mnie osobiście cieszy, że Widzew wyraźnie, że się o środowisko nasze nomada sztuczny delicji po prostu obudziło i wyraźnie już zaznacza, że tak dalej być nie może on w dziękuję bardzo dr Aleksandra Przegalińska filozofka z Akademii Leona Koźmińskiego Massachusetts Institute w technologii oraz Zuzanna Warso z Helsińskiej fundacji praw człowieka obozem w studiu w 14 3 7 zaś informacje program przygotowała Olga Majewska realizował Krzysztof Woźniak były, ale on włączenie ich różni od Zwiń «

PODCASTY AUDYCJI: POŁĄCZENIE

Więcej podcastów tej audycji

REKLAMA

POPULARNE

REKLAMA

DOSTĘP PREMIUM

Słuchaj podcastów TOK FM bez reklam. Wybierz pakiet "Aplikacja i WWW" i słuchaj wygodniej z telefonu!

KUP TERAZ

SERWIS INFORMACYJNY

REKLAMA
REKLAMA
REKLAMA