Rozwiń » Dzień, dobry państwu. Witamy w audycji Homo science.
Przy mikrofonie Aleksandra Stanisławska.
Piotr Stanisławski krezy nauka PL.
Jest z nami gości dr Michał Cholewa, pisarzrz informatyk z Instytutu informatyki teoretycznej i stosowanej Polskiej Akademii Nauk. Cześ Michale, cześć bardzo miło, mi tu być michałjcie na co dzień zajmuje sztuczną inteligencją, zagadnieniami sztucznej inteligencji w pracy zajmuje się również tymi zagadnieniami jako pisarz science fiction pisuje o tym książki. No i taka rzecz mnie interesuje, bo tutaj mamy rozmawiać o tym, czy bać się sztucznej inteligencji, traktować ją pobłażliwie. Czy może z nadzieją, że nam w czymś pomoże no jak ty uważasz takie pytanie ogólne na początek?
To jest bardzo dobre pytanie, a żeby to zilusować. Najprościej, jak była rewolucja przemysłowa największym wrogiem manufaltur, bo tutaj np. krosą Krosno mechaniczne no to nie jest samo z siebie jakoś przesadnie straszne, ale ono zaczęło zastępować ludzie czoło wypierać wypierać ludzi z fachu. I myślę, że sztuczna inteligencja na tym na tej wysokości, na której my jesteśmy, to ona może być czymś w rodzaju takiego Krosna, ona będzie w stanie zrobić część rzeczy będzie wymagała ludzi, którzy będą się nią zajmować. W związku z tym wytworzy w innym miejscu miejsca pracy i jest też niezwykle potężnym narzędziem liczącym tak naprawdę i wnioskującym no bo de facto o tym są cały system jeszcze inteligencji zjednoczon one mają sobie zbudować. Najlepiej byłoby, to takie powiedziałbym bardziej zaawansowane, mają sobie zbudować model rzeczywistości na podstawie danych uczących i z niego wnioskować, więc tak naprawdę wszystkie, pomijając wszystkie eleganckie wypowiedzi, jakie mówi tam przykład czat gpt, to tak naprawdę jest o dużo maszyna licząca, która przyjmuje dane i wyrzuca z siebie jakiś efektor. Czy to jest za przykład zdanie ładnie splecone czy to jest obliczenie szacunki kursu giełdowego jakiejś akcji, czy wreszcie w sytuacjach ekstremalnych parametry lotu rakiety nuklearnej. To generalnie jest no wszystko to są faktem jest, że można zacować do wielu rzeczy i wszystkich związanych z komputerami prawie co oznacza, że oczywiście jak my głupio będziemy wrzucać do niej dane. To odpowiedzi też mogą nam narobić problemu.
Właśnie powiedzieć, tutaj bardzo taką charakterystyczną trochę dziwnie brzmiącą rzecz sobie ma z BOT zbudować model rzeczywistości i o ile nie wiem 3 lata temu myśleliśmy sobie, jeżeli już w ogóle ktokolwiek się nad tym zastanawiał poza fachowcami, że ten model rzeczywistości to jest np. nie wiem, model dotyczący tego, jak tam. Nie wiem diagnozować u ludzi jakąś chorobę jakiegoś bardzo wąskiego kawałka rzeczywistości. To teraz rozmawiając, zwłaszcza z takimi jakimiś czatami gpt no bo nie ukrywam, że to jest to, co zrobiło największy hip wokół wokół tego tematu, ostatnio raczej mamy wrażenie, że one mają model całej rzeczywistości. I czy go zapytamy o robienie naleśników, czy o politykę w Paragwaju, czy o cokolwiek innego to zawsze coś tam ma do powiedzenia na ten temat, czasem głupio czasem nie. Czy te modele rzeczywistości budowane przez takie systemy, to mają rzeczywiście cokolwiek wspólnego są rzeczywistości. To jest takie raczej udawanie, które ma nam no nic sobie zamylić oczy, bo to brzmi tak agresywnie, ale raczej zrobić na nas wrażenie, że to jest mądrzejsze niż rzeczywiście jest.
Czy to tak naprawdę w ogóle nie jest mądre, to znaczy to to jest maszyna, ona tam z mądrością nie ma wiele wspólnego, trzeba g PIT i akurat te modele w ogóle te wielkie modele językowe to są, które są po prostu uczone gigantyczną ilością dane, jakby się dobrze zastanowić. Gdzieś wyobrazili sobie człowieka, który wyłącznie siedzi w gigantycznej bibliotece, no to on też prawdopodobnie ma do powiedzenia wszystko na większość tematów, które w tej bibliotece są i może może znaleźć tam w książkachót, gazetach duże modele językowe są uczone naprawdę gigantycznymi zasobami internetu. Jesteśmy w tej chwili w złotej jerze, jeżeli chodzi o uczenie uczenie komputerów dużą ilością danych, bo mamy do niej dostęp. Mamy po pierwsze, te dane są na sieci, którego są zgromadzone w takim miejscu, że można je pobrać. No bo są w internecie, w związku z tym czy od gpit jest lub też w ogóle model językowe szerzej, bo to nie jest dalece jedyne są uczone bardzo dużo niąone, ale i w tych danych. No jak się go zapytał polityka para gwar, to coś znajdzie, bo chociażby były gazety sprzed kilku lat, w których tam, bo paragdają coś było napisane może i paragwajskie. To więc, więc tych dla nas prawda jest dużo dzięki temu, może sprawić wrażenie, że faktycznie dużo wie, ale funkcjonalnie jest to tylko nieco bardziej zaawansowany interfejs do przeglądania tej wielkiej biblioteki, jaką jest, jaką jest internet. Oczywiście, ja to trochę spłycam, bo, bo ten trochę bardziej zaawansowany to jest naprawdę duży wysiłek technologiczny, żeby tam, żeby tam wejść nauczenie też nie jest łatwe w tej chwili uczenie takich sztucznych inteligencji bez takich systemów generatywnych. No to są ciężkie pieniądze, mnóstwo mocy obliczeniowej, żeby on brzmiał z grubsza, jak jak człowiek by mógł napisać, ale jeżeli czuje się stanowi to kilka lat temu już. Ja 2 te asystent Google, który każdy ma w telefonie, zaczynał całkiem realnie rozsądnie w miarę reagować, znaczy jak na re maszynę reagować na nasze polecenia AUTO, uzupełnianie Google wcale nie było takie głupie, jak się tam wpisywało rzeczy w wyszukiwarce, więc tak naprawdę te badania idą naprzód, one ja mam wrażenie, że diblernik to jest taka technika uczenia maszynowego, sporo zmieniła i to było jakiś czas temu się pojawiło tylko to po prostu teraz widzimy. Teraz mamy ten jak gdyby ten koniec sięgnął darmowych darmowych systemów i stąd mamy zarówno miliurnej jak i jak i właśnie czat gpit, i które teraz w święcie triumfy, choć szczerze powiedziawszy. No nie zawierzyłbym mu np. przygotowanie mnie do egzaminu.
No właśnie typu wspomniałem się odcza di pitni, skoro już go tak troszeczkę będziemy wlec w różne strony.
To na przykładżą.
Tak tak, że to jest taki troszkę bardziej zaawansowany interfejs do przeglądania internetu, tak i ożą wygląda na to, że on dużo wie. No ale widać, że są 2 pułapki 2 zasadnicze, a wiele mniejszych pierwsza jest taka, że on korzysta z tego, co jest dostępne w sieci, a nie zawsze w sieci są rzeczy prawdziwe i mądre, a druga rzecz jest taka, że wymyśla, jeżeli nie wie, to zmyśla i wymyśla bzdury. I teraz, kiedy czy w ogóle nastąpi taki moment, że my będziemy mogli zawierzyć takim systemom, że one nie będą nas po prostu kiwały.
No czy to zależy, jakim systemom, to znaczy podejrzewam, że w ciągu bliżej 5 już 10 lat prawdopodobnie będziemy mieć taką sytuację, że odpowiedzi udzielane przez jakiś model generatywny będą mniej więcej, tak jakby nam udzielił ich człowiek, który ma dostęp do internetu, czyli będzie mógł jakoś przejrzeć sprawdzić, czy coś mu się nie zgadza. I powiedzieć nam już naprawdę to, co wydaje mu się, że jest, że jest okej np. w nie wiem w nawigacji. To my ufamy komputerom już od dawna miał w tej chwili faktycznie bez nawigacji, co się nie ruszam w dalszą drogę, bo zwyczaj nie jest łatwiej, a także jestem w stanie jestem w stanie np. monitorować korki. I tutaj jest ciekawa tego, wtedy ufamy tym systemom do tego stopnia, że ja przecież wcale nie muszę widzieć korka, żeby go zacząć objeżdżać, wystarczy, że komputer mi powie, że jestem opóźnienie 28 minut na trasie. Ja już zaczynam objeżdżać.
No właśnie, to ja w takim razie wyjdę na chwilę słowo, a jak on zechce powiedzieć, że musisz objechać, a tam nie będzie żadnego korka? Takie w rzeczy.
Mechanicznie rzecz biorąc uwiezę, to znaczy odruchowo uwież, ponieważ mam znaczy nie tylko ja albo więcej jest jakoś supert, który przez mojej strony, ale mamatorię, że ludzie mają tylko 2 tryby patrzenia na maszyny albo im w ogóle nie ufają, aby mufają całkiem. No, więc na wydaje mi się, że na etapie nawigacji nawigacji gsowej jesteśmy już na etapie, kiedy ufamy im całkiem, to znaczy jak tam nie będzie korka, to mi będą omijał pustą ulicę i nie będę tego sobie zawartego zdawał sprawy więcej, jeżeli mi się raz zdarzy, że tam korka nie było to moją pierwszą myślą będzie wyraźnie się rozładowało, zanim tam dojechałem tymi bocznymi uliczkami. To nie będziemy, że się pomylił komputer i my uczymy się już ustawą, zaczynamy ufać ufać im faktycznie bezgranicznie. To nie jest tak, że nie było przypadków, że ktoś zjechał ze schodów kierowany poleceniami nawigacji, a przecież to się bardzo łatwo weryfikuje. Czy wystarczy wyjrzeć przez szyb, jak się widzi schody, to raczej nie powinno się jechać. Więc, więc oczywiście, o ile komputery, znaczy komputery w tym sensie są niebezpieczne, że ludzie robią to czym komputerykarzą, a komputery się czasem mylą, to, bo nie są mądre, to znaczy one potrafią sprawić wrażenie, że są te gane są prawie ludzkie. I uważam, że w ciągu nie wiem, dekady prawdopodobnie będzie taka sytuacja, że my będziemy mieć realny problem odróżnić komputer człowieka, no bo niby są te testyuringa, ale testy monitoringa w tej chwili już większość latotów nowych przechodzi, ale generalnie jak się trochę po sieci z takim czas, bo to wiadomo, że to jest czar, bo on się zresztą przyznaje do tego, więc to nie jest jest problem. Natomiast uważam, że, o ile nie jestem zwolennikiem teorii, że komputery za 10 lat będą świadome, to uważam, że za 10 lat komputery będą na tyle dobrze udawać świadomość, że my się nie zorientujemy, znaczy. No myślę zorientujemy, jak będziemy to wiedzieć, ale nie wiedząc tego na pewno będziemy mogli się dać nabrać.
Dobrze, a za w takim razie 20 lat trochę wynika z tego, że już będą bardziej, to znaczy to jest ten moment, którego się chyba ludzie najbardziej obawiają, kiedy maszyny ich prześcigną. Nie w tam szybkości liczenia, bo to na nikt nie robi wrażenia przynajmniej od lat siedemdziesiątych, no ale wnioskowanie analiza danych taka bieżąca nie mówię o jakichś ogromnych zbiorach itd. tylko tylko po prostu wyciąganie wniosków. Nie mówię, tu wciąż o inteligencji, bo chyba do końca nie jesteśmy z tej nawet zdefiniować, ale czy myśli, że to rzeczywiście dojdzie do takiego momentu, a jeżeli dojdzie to czy ta sztuczna czuje, wciąż będziemy partnerami dla tej sztucznej inteligencji, na tyle interesującymi, żeby ona się nie zajęła sama sobą.
I to jest akurat bardzo szeroko poruszany temat w fantastyce, to znaczy realnie na chwilę, puszczając wozy wyobraźni, jeżeli weźmie sobie taką sztuszszą inteligencję, jak jak w fantastycznych książkach albo filmach występuje, która już faktycznie świadoma. To nie to nie ma powodu, żeby ona się nam interesowała, bo jesteśmy mało ciekawi, to znaczy ma inne sztuczne inteligencję, które, które mogą być pustokroć ciekawsze i Lem nawet w którymś momencie wprost mówił, że oczekiwanie, że szuszcze inteligencja z całym swoim możliwościami będzie wspierała ludzkość. Jest trochę tak, bo oczekiwać, że ludzkość całe swoje całą swoją energię i zasoby poświęci na wspieranie węgorzy, np. o węgorzach jestem członkiem tej ludzkości, która ma te wszystkie możliwości o węgorzachkiem naprawdę niewiele, a co dopiero, jakim pomóc?
No ale Węgorze czy nie stworzyły najpewniej, może ona powinna przemienić biżyty sumienia? Jakich.
Znaczy chciałby myśleć, że jeżeli będzie wszechmocna w sztuczna inteligencja i świadoma to będzie czuła wyrzuty sumienia, bo to jest bardzo pożyteczna cecha z punktu widzenia kogoś, kto wtedy będzie całkowicie w jej mocy, ale, ale wydaje mi się, że nie dojdziemy do tego etapu jeszcze przez długo. To znaczy trudno mi przewidzieć, jak będzie wyglądała daleka przyszłość, ale tak z ogólnena Szusza inteligencja do algii to jest ariwsszal gener re inteligent, czyli nie to, co teraz czy mamy zasadniczo intelies, do 1 zadania tylko taką, która by robiła wszystko. To po pierwsze, nam się teraz nie opłaca robić, bo szkolenie takiego systemu byłoby po stokroć, przepraszam tą stokroć urzędy wielkości całe droższe i bardziej wymagające niż szkolenie takich wąskie sztucznej inteligencji, a do prawie wszystkiego nam wystarczą. Te wąskie sztuczne inteligencje.
Właśnie, co dogadają?
Nawet to bardzo bardzo złożonych być może być może to, żeby się ze sobą nie dogadywały, należy mi w to programować, ale to, więc myślę, że raczej nie należy się jakoś przesadnie obawiać, choć oczywiście to jak się to oprogramowuje SZ toteligencję i w ogóle systemy komputerowe może wywołać problemy i to się niestety. No w przełwie kilku sytuacjach zdarzyło w historii i może się zdarzyć bardziej była.
Północy tak bardziej tu od razu, bo tak cały czas wspominaliśmy, tylko Michał jest autorem serii książek. O wspólnyj tak powiem tytule algorytmy wojny albo, chociaż malgorytm wojny i teraz się ukazała najnowsza siódma część tego już zamykająca cykl, czyli gra o sumie niezerowe, jakby państwo chcieli wiedzieć, co może. Oby się nie zdarzyło w przyszłości w kwestii sztucznych inteligencji, to warto tam sięgnąć.
A autorem tych książek i naszym dzisiejszym rozmówcą jest dr Michał Cholewa. No pisarz i informatyk, z Instytutu informatyki teoretycznej i stosowanej Polskiej Akademii Nauk.
A w drugiej części popytamy między to innymi właśnie o to ograniczanie sztucznej inteligencji. Na tę część zapraszamy po informacjach tokfm witamy państwa ponownie druga część audycji homons.
I ponownie Aleksandra Stanisławska.
Piotr Stanisławski cizina kap PL.
I wciąż rozmawiamy z dr. Michałem cholewą, pisarzem informatykiem, rozmawiamy o sztucznej inteligencji, czy się jej bać, w jaki sposób ją traktować i co nas czeka w niezadługiej przyszłości z jej strony?
Tak jest i w pierwszej części audycji? No właśnie rozmawialiśmy o tym, jak doszliśmy do tego, co mamy. I czy się obawy, czy nie czy potrzebne są nam w ogóle i dostępne sztuczne inteligencje? Te takie ogólne, że tak powiem, bo wbrew być może wrażeniom te, które mamy już w tej chwili nawet te najnowsze to wciąż są bardzo wąskie systemy chociażby wyspecjalizowane w być u gadatliwymi i są w tym dobre, ale też weszliśmy troszeczkę na temat tego, co robić, żeby nam te sztuczne inteligencje się nie wymknęły spod kontroli, bo to jest temat w tej chwili bardzo gorący. Naukowcy się na ten temat wypowiadają politycy, chętnie Unia Europejska szykuje się do wprowadzenia jakichś ograniczeń. Czy myślisz, że w ogóle jest możliwość ograniczania czegoś takiego, no bo takim najmocniejszym postulatem, bo wstrzymanie prac nad sztuczną inteligencją, tam na pół roku rok czy ileś tam nawet tego nikt nie wyśmiał, bo się nikomu nie chciało wszyscy pogalopowali dalej, co są o takich narzucaniu.
Ograniczeń. To znaczy sztuczna inteligencja każda jest narzędzie, to znaczy każdy zaawansowany system jest narzędziem, jeżeli tylko używamy do nie wiem, obsługi naszej lodówki, to jeszcze pół biedy, jeżeli np. pakujemy go na giełdę. To istotnym jest, żeby on podlegał i jakimś rodzaju regulacji, może nie jego konstrukcja, ale np. jego możliwości działania np. nie chcielibyśmy, żeby system, który dostanie dostanie do zawiadywania. Nie wiem, siecią energetyczną, powiedzmy, bo co nie jest zły pomysł, tak generalnie to taki system raczej nie śpi nie przychodzi zestresowany do pracy. No po prostu działa szybko liczy, to też jest ważne, ale nie chcielibyśmy, żeby był całkiem bez nadzoru żadnego, ale z drugiej strony w ogóle nie miałem pojęcia, jak ten nadzór zrobić, żeby łatwo dać przykład drony bojowe, którego są bardzo popularnym przykładem, bo to by chyba takie pierwsze przykłady szeroko znane i sztusza inteligencji autonomiczne drony, które gdzieś tam latają nad nad. No to wtedy najczęściej nad grainstajem nadówkanistanem nad pokistanem one technicznie mają operatorów i one zbierają informacje i do bardzo długo było. Powiedziane teraz już zdaje się chyba odchodzi się od tego powolutku, że ostatnie słowo ma człowiek, jeżeli chodzi o uruchomienie broni, że człowiek musi być ostatnim ogniem, który zatwierdzał życie broni dron, nie może tego zrobić sam i teoretycznie to dobre zabezpieczenie. No ale przecież, jeżeli dron doskonale, znaczy dron dostarcza temu człowiekowi informacji, to przecież i byłaby w środku jakaś sprytna szuczna inteligencja, która nawet nie jest wroga, ale po prostu faktycznie uważa, że cel jest ważny. To naturalnie dostarczy temu człowiekowi takich informacji, że ten człowiek się nie zawaha. No przecież człowiek ufa temu, co, jeżeli mu podświetli, może ten pojazd to jest np. czołg, albo, że w środku jest gromadą uzbrojonych ludzi, to on chcą uwierzy i będzie miał taką decyzję, znaczy podejmie taką decyzję. Jaka, jaka jest właściwa wobec wwozu pełnego uzbrojonych ludzi, którzy.
Sąskojny przez system.
Zostanie oszukane zmiany, ale to też niekoniecznie jest umyślne zmylenie, bo i tak naprawdę my wprowadzamy te ograniczenia również, dlatego, żeby ta sztuczna ten systemszeń inteligencji jakikolwiek by nie rozpoznawał uzbrojonych ludzi wewnątrz samochodów, żeby on się nie pomylił. I nie odpalił w wyniku tej pomyłki, no ale czyli to znaczy, że on w założeniu ma działać wtedy, kiedy już się ten system ograniczeń, wtedy, kiedy ten system się już pomylił. On źle zidentyfikował i chciałby wystrzezić, ale mu człowiek zabroni, no ale ten system wyświetli temu człowiekowi, tam jest zgroma uzbrojonych ludzi, a człowiek się nauczył, że ten system się nie mylił przez ostatnie parę lat. Więc, dlaczego teraz ma to kwestionować. To jest dokładnie tak, jak z tym gpsm, któremu bezgranicznie ufamy więcej my wprowadzamy również sytuację, w której tak naprawdę bardziej się człowiekowi opłaca, posłuchać system oszucznej inteligencji i się najwyżej wyłoży na tym, zwłaszcza że ja na siebie zrzuca bombę tylko na jakiś obcych ludzi niż zakwestionować ten system i popaść w formalne kłopoty, jeżeli się, jeżeli ten system deklaur rację, a ten system z zwykle miał rację, miasto jest duże ryzyko zawodowe dla takiego powiedzmy pilota operatora drona.
Wspomniałeś operatorów dronów, wspomniałeś, elektrownie systemy energetyczne, ale czy już jak wiele jest takich sfer w tej chwili, gdzie działają te pomniejsze sztuczne inteligencję i my nawet na co dzień nie zdajemy sobie z tego sprawy, że korzystamy z ich usług, nazwijmy to tak mówiliśmy o nawigacji w samochodzie. Tak mówiliśmy o ciacie gpt, to są takie najbardziej oczywiste sytuacje, ale gdzie w takim życiu codziennym możemy się natknąć na takie dosyć kluczowe elementy naszego życia infrastruktury, które właśnie podlegają zarządzaniu przez sztuczną inteligencji w jakimś stopniu mniejszym.
Co no coraz zależy, jak widzimy, jak widzimy zarządzanie, bo w chwili obecnej takie systemy ucząca, głównie pełną rolę doradczą jednak i no analiza teleometrii analiza obrazu, ale najbardziej chyba znanym przykładem dzisiaj. No były jednak system analizujące wypowiedzi, wtedy akurat na sieciach społecznościowych, no i ona jednak wpłynęły cała afera kabliż analityki. To była sprawa, kiedy funkcjonalnie dzięki tym narzędziom wpłynięto na wybory prezydenckie w Stanach Zjednoczonych, co oznacza, że zasadniczo używanie tego rodzaju systemów spowodowało, że ktoś miał wpływ na wybór najpotężniejszej osoby na świecie i jest długa dyskusja na temat tego, jak rozumieć prywatność. Ile sprawny, powiedziałbym operator takiego systemu. No i wyżej, tym bardziej wie o nas. No smutna odpowiedź jest taka, że prawie wszystko, a ile powinien wiedzieć, są całe takie projekty tzw smart citys, w których się próbuje wprowadzić miejską infrastrukturę w pewien sposób sterowaną przez przezno, żeby daleko mieszkać? No przy światła przecież na skrzyżowaniach. Przyznam, że w tej chwili nie wiem, czy to jest już realizowane, ale to nie jest przecież wielki problem, one i tak są 1 systemem, a chciałoby się, żeby światła nie były, głupie tylko np. działały, żeby rozkorkować, więc wprowadzenie wprowadzenie tego jako powszechnego rozwiązania nie powinno być złym pomysłem, a potrafi sobie wyobrazić mnóstwo problemów, które z tego wynikną. Znaczy zakładam, że to nie jest tak, że światła się zbuntują przeciwko ludziom, ale my jesteśmy bardzo nieodporni na pomyłki, więc słabo się zabezpieczamy i powinniśmy to zmienić.
Mamy jeszcze taki problem, że, współpracując ze sztuczną inteligencją, zakładamy, że ona w jakim stopniu jest ludzka, więc, że ona też jakoś tam filtruje tej informacje. Te nasze interpretacje komunikatu ze sztucznej inteligencji mogą być mam wrażenie mylne, bo ona nie ma czegoś na myśl, tylko podaje dane, a my zakładamy, że ma coś na myśli.
Ojca jest problem błąd był taki moment, kiedy stworzono system, które miał w założeniu, że śledzić terrorystów wyszukiwać ich w tych takich państwa w okolicach Pakistanu moimstanu nie jestem w stanie teraz powiedzieć, którym system nazywał się skrajnet, ponieważ z jakiegoś powodu ktoś uznał, że to jest świetny pomysł, żeby nazwa taki system, który zawiaduje bronią tak.
Tak przypominam, że skrajnet to był w termin na to, że taki system, który się zbunttował przeciwko ludzkości i toczył wojnę jej.
I ten system szukał terrorystów na podstawie charakterystyk terrorystów, to znaczy oni się musieli dużo poruszać. Co rozpoznawało po poruszaniu się komórek telefonów komórkowych i być w pobliżu miejsc napadów, ale tą charakterystykę mają nie tylko terroryści, ale i dziennikarze i ten system wskazywał te osoby, ale ludzie już dawno zapomnieli, a właśnie może nie brali pod uwagę, że on pokazuje osoby, które spełniają te warunki, a nie pokazuje terrorystów. W związku z tym zrobili ludzie sobie łatwo kuli skrót myślowy, że jeżeli pokazuje jakąś osobę, to jest to terrorysta i można np. uderzyć tam bombą kierowaną, a nie, że to jest osoba, która się dużo porusza i używa komórki, ponieważ ucie robią takie skróty, a maszyny. Nie.
No właśnie, to nie jest błąd w momencie systemu, tylko błąd człowieka czas nas goni musimy kończyć, powiem tak, śledźmy to, co się dzieje, bo z 1 strony też sztuczne inteligencję po prostu sobie po prostu działają, a z drugiej strony jednak dobrze wiedzieć, w których momentach możemy się zdziwić.
A naszym gościem był dzisiaj dr Michał Cholewa, informatyk z Instytutu informatyki z teoretycznej i stosowanej Polskiej Akademii Nauk oraz pisarz autor serii science fiction pt. algorytm wojny.
Tak jest i sam mam bardzo również miło polecamy książkę, bo tam jest dużo o sztucznych inteligencjach, ale bez spoilerów. Niech państwo sami zobaczą, warto sprawdzić bardzo ci jeszcze raz dziękujemy państwu. Dziękujemy zapraszamy, co tydzień na naszą audycję zapraszamy na naszą stronę cizji, nauka PL teraz czas na informację Radia do kfem. Zwiń «
PODCASTY AUDYCJI: HOMO SCIENCE
-
-
-
25:16 W studio: Bartosz Fiałek
-
25:49 W studio: Adam Zbyryt
-
25:21 W studio: prof. Jacek Bełdowski
REKLAMA
POSŁUCHAJ RÓWNIEŻ
-
-
30.09.2023 18:00 Szkoda czasu na złe seriale36:30 W studio: dr Agata Loewe
-
30.09.2023 11:00 Godzina Filozofów44:27 W studio: Artur Nowak , Tomasz Terlikowski
-
30.09.2023 07:20 Poranek Radia TOK FM - Weekend20:50 W studio: dr Konrad Maj
-
30.09.2023 08:00 Poranek Radia TOK FM - Weekend08:43 W studio: Joanna Solska
-
30.09.2023 07:40 Poranek Radia TOK FM - Weekend14:37 W studio: prof. Maciej Mrozowski
-
30.09.2023 08:40 Poranek Radia TOK FM - Weekend15:36 W studio: Natalia Broniarczyk , dr Zofia Szweda - Lewandowska
-
-
30.09.2023 08:20 Poranek Radia TOK FM - Weekend16:02 W studio: dr Andrzej Kassenberg , Dominika Lasota
-
30.09.2023 08:59 Tak rośnie jedzenie59:32 TYLKO W INTERNECIE
-
30.09.2023 12:00 Magazyn filozofa - Tomasz Stawiszyński37:13 W studio: Michał Kacewicz
-
30.09.2023 07:35 Pod dyktando
-
-
30.09.2023 11:59 Pod dyktando
-
-
30.09.2023 10:40 Młoda Polska14:03 W studio: Jagoda Pijaczyńska
-
30.09.2023 10:00 Młoda Polska22:31 W studio: Kacper Nowicki
-
30.09.2023 12:29 Pod dyktando
-
30.09.2023 13:00 Magazyn filozofa - Tomasz Stawiszyński24:26 W studio: Joanna Nawrocka
-
30.09.2023 13:40 Homo Science25:38 W studio: Leon Ciechanowski
-
30.09.2023 14:20 Człowiek 2.026:39 W studio: dr Izabela Kowalska-Leszczyńska
-
30.09.2023 15:40 Twój Problem - Moja Sprawa21:36 W studio: Tomasz Włosok
-
30.09.2023 16:10 Kampania w TOKu24:18 W studio: prof. Dorota Piontek , prof. Rafał Chwedoruk
-
30.09.2023 15:00 Skołowani28:09 W studio: Rafał Glazik
-
30.09.2023 16:00 Kampania w TOKu04:47 W studio: Pani Joanna
-
30.09.2023 15:20 Twój Problem - Moja Sprawa19:00 W studio: Katarzyna Rozenfeld
-
30.09.2023 16:40 Kampania w TOKu14:16 W studio: Klara Klinger
-
-
-
30.09.2023 21:00 Weekend Radia TOK FM49:12 W studio: Filip Piotrowski
REKLAMA
DOSTĘP PREMIUM
TOK FM Premium 40% taniej. Radio TOK FM bez reklam, podcasty z audycji i podcasty tylko dla Subskrybentów.
KUP TERAZSERWIS INFORMACYJNY
REKLAMA
REKLAMA
REKLAMA
-
TOK FM
-
Polecamy
-
Popularne
-
GOŚCIE TOK FM
-
Gazeta.pl
-
WYBORCZA.PL