Rozwiń » W poranku radi tokfm doktory Kaja kowalczewska, adiunktka w inkubatorze doskonałości naukowej centrum diddal d jastis na Uniwersytecie wrocławskim. Dzień dobry, pani doktor, dzień dobry, będziemy rozmawiały o sztucznej inteligencji, a także jak sztuczna inteligencja funkcjonuje w sferze wojskowości zbrojeń tych wszystkich rzeczy, o których no lubimy na co dzień nie myśleć, ale niestety wojna ma to do siebie, że potrafi przyjść nie proszona, więc dobrze wiedzieć, co tam się dzieje, ale zanim panią poproszę o te rzeczy szczegółowe, to przyznam, że jest bardzo ciekawa pani opinii takiej generalnej. Jak pani ocenia jakość dyskusji publicznej, jaka się toczy wokół rozwoju? Ai pytam szczególnie w Polsce i szczególnie w kontekście ostatnich miesięcy potem wybuchu zainteresowania związanego z czatem gpit.
Dobrze, zatem gpt oczywiście chodzi myślę, że w zastosowaniach wojskowych nie ma.
Ona tak, ale chodzi mi o to, że on po prostu rozbójuje o taką dyskusję medialną, stąd ta uwaga.
No tak tak mamy teraz mnóstwo ekspertów w zakresie wojny, to się śmiejemy, że ci, co się znali wcześniej na szczepionkach, to teraz znają się na wojnie, ale bardziej na serio. To, jeżeli chodzi o całą debatę dotyczącą tych wojskowych, zastosowanie sztucznej inteligencji, to ja jako badaczka tego tematu ja się tym zajmuję od 10 lat. Mam wrażenie, że ta debata właściwie publiczna nie istnieje być może teraz właśnie w związku z Ukrainą, gdzie mamy doniesienia o różnych dronach, które są często mylone ze sztuszą inteligencją, bo tak naprawdę drone są zdalnie sterowane, więc mamy tego człowieka gdzieś z tyłu, a tych sprzętów systemów pełni autonomicznych, czyli oparte na szuszcze inteligencji, no na całym świecie właściciel się mówi, że jeszcze nie było użytych albo przynajmniej o tym nie wiemy, chyba, że będziemy rozmawiać o cyberprzestrzeni o różnych programach, które mogą być również uznane za takie bronie oparte na sztucznej inteligencji, to tam znacznie więcej programów może funkcjonować, ale wracając do tego kinetycznego świata. No to mam wrażenie, że ta debata w Polsce nie jest, no na pewno nie jest na tym samym poziomie, co w innych państwach od 10 lat toczą się rozmowy na forum ONZ, gdzie Polska delegacja występuje. I przedstawia stanowisko jednak to stanowisko jest dosyć może to powiedzieć takie zbalansowane nie wnosi zadłuż nowego zresztą nie jest to nietypowa sytuacja, gdyż większość państw, które są w NATO. Raczej tutaj starają się popierać stanowiska główny graczy, jak stany Zjednoczone wielka Brytania, więc myślę, że na pewno przydałaby się większa świadomość po to, żeby np. w następwie jakiś newsów z tego, co się dzieje na froncie na Ukrainie, żebyśmy nie wpadali w tzw. moralną panikę, że za chwilę tutaj przyjedzie robokok i zgładzić całą ludzkość.
Roboko, jak roboko Terminator przecież.
To dokładnie tak.
Natomiast wie panie tak, zapytałam o to, dlatego że mam w głębokie wrażenie takiej, no właśnie medialnej można powiedzieć paniki związanej ze sztuczną inteligencją. Jest bardzo dużo materiałów na ten temat lepszych i gorszych, a jakoś nie widzę, żeby było to poważnie dyskutowane. Nie wiem w świecie polityków np. a to jest rzeczy strategiczne, przecież dla rozwoju społeczeństw krajów czy w kontekście tym, o którym szczególnie dzisiaj rozmawiamy wojskowości, więc byłoby fajnie, gdyby o tym też rozmawiano bardziej na poważnie dobra.
Czy ja tu mogę jeśli śmiało jeszcze, że no biorąc poawać taką polityczną debatę nasze działania regulacyjne jakieś wybudowanie stanowisk na potrzeby wewnętrzna. To mam wrażenie, że ta stara wojskowa jest przemilczana, co wynika z bram udział z w pracach na temat założeń do strategii rozwoju suszeń inteligencji w Polsce, gdzie właściwie kwestie związane z prawem międzynarodowej broniami były dokoptowane na sam. Koniec nie ma takiego zainteresowania tym i dopiero w grudniu zeszłego roku pojawiła się np. Polskę polskie stanowiska na temat w ogóle wojny w cyberprzestrzeni. Więc, a to jest temat, który już jest od 15 lat bałkowany, jak nie więcej, więc myślę, że przydziałam się poczekać na takie bardziej stanowcze kroki w tą stronę.
Ostatnio było głośno o rzekomym tronie, który miał rzekomo zaatakować własnego operatora w ramach symulacji. Podkreślam wielokrotnie to słowo rzekomo, dlatego że okazało się to nieprawdą cały ten wiral de facto wyszedł od anegdotki opowiadanej przez pilota pułkownika pana Hamiltona, ono opowiadał to w takim kontekście raczej eksperymentu myślowego, później tłumaczył, że takie ćwiczenia w ogóle nie miały miejsca. Opowiadał to na jednej z branżowych konferencji dotyczącej przyszłości wojskowości, więc by poszło jako nośne i teraz, dlaczego to było nośne, dlatego, że to jest kwintesencja tego, czego my się obawiamy, że ta maszyna zbuntuje się przeciwko nam, bo jeśli np. tak jak było w tej historiice, będzie szkolona, żeby zdobywać punkty za niszczenie obiektów, a operator będzie ją powstrzymywał od tego niszczenia. W pewnym momencie. No to czemu by nie pozbyć się operatora. Czy ta anegdotka jest w jakiś sposób symptomatyczne, czy ona się może wydarzyć? Czy ta maszyna się może zbuntować?
Rzeczywiście zamieszanie wokół tej anegdotki było, no niesamowite muszę się przyznać, że ja sama na początku niedoczytawszy do końca, o co chodzi, zostałem się o to w końcu zrealizował się to, o czym od 10 lat dyskutujemy, natomiast byłam też zaskoczona tym, że w ogóle tak do czegoś takiego mogłoby doj szczególnie w Stanach Zjednoczonych ze względu na to, że mówi się oświeca. Dyskusja o tej zabójczych o zabójczych o robotach o kile Robot zaczęła się 10 lat temu ze względu na inicjatywę organizacji pozarządowych, które właściwie zmusiły, przekonały skutecznie państwa do podjęcia rozmów na ten temat i od 10 lat właśnie przedstawia się różne scenariusze. I tak jak w tej anegdocyt jest jeden z tych typowych scenariuszy, których chcemy uniknąć. I wydaje się, że po tych 10 latach mamy już jakiś pewien konsensus wśród państw, że te maszyny, jeżeli będą w ogóle rozwijane i wprowadzane będą musiały być zgodne z istniejącymi normami prawnymi, właśnie szczególnie tzw. normami targetingu, czyli sposobu prowadzenia działań, czyli właśnie te, że nadajemy algorytmowi jakiś cel i on ma osiąga ten cel, ale powinien mieć też wgrane pewne zabezpieczenia, które mówią o tym, że np. nie można zabijać ludzi, choć de facto ludzie też są celami wojskowymi w trakcie wojny. Natomiast mam wrażenie, że to i tak jak ta kampania dzisiaj lat temu tych organizacji społeczny przyjatą nazwę zabójcze, roboty po to, żeby rozbudzić naszą wyobraźnię i przyciągnąć uwagę. I na pewno jest to to skuteczne narzędzie marketingowe, ale musimy pamiętać o tym, na czym mieć też nadzieję, że żadne szalone państwo nie zdecyduje się na wypuszczenie w świat, tak jak może jak robią firmy prywatne wspomniane przez panią churgpt, które został wypuszczone po to, żeby być przetestowany na nas. To miejmy nadzieję, że wojskowe zastosowania takie, które mogą mieć śmiercionośną, siłę, mogą ranić, zagijać nie będą wypuszczone samopas. Na pewno byłoby to niezgodne z prawem międzynarodowym i aktualnie państwa, mimo że się nie przyznają do końca, na jakim etapie są ich prace rozwojowe w tym zakresie, ale zgadzają się do tego, że gdzieś ta ludzka kontrola właśnie tego operatora, który zauważy, miejmy nadzieję w odpowiednim momencie, że co się z nie tak z algorytmem. I on tutaj się przeprogramował, zrobił aktualizację swojej misji, że ta kontrola ludzka będzie zachowana, bo to jest dla nas taki bezpiecznik, którego bardzo potrzebujemy.
Tak, chociaż nie wiem, czy te nadzieje nie są takie wie pani z perspektywy? No, jakby dobrej osoby, która by chciał, żeby świat by dobra, jeśli mówimy o wojnach, mówiła o tym, że ktoś kogoś atakuje, to raczej nieszczególnie będzie przejmował różnymi rzeczami, tym bardziej, że, gdyby np. korzystał z takiego takiego drona, który absolutnie sam decyduje o tym, co atakuje itd. tak, to, których jeszcze nie ma podkreślamy, no to jeśli dojdzie do zbombardowania szkoły, to może powiedzieć o jej pomyłka, to drąc się pomylił, to nie nasi wojskowi. To nie my jesteśmy odpowiedzialni za zbrodnię wojenną bardzo wygodne.
Bardzo wygodne, choć muszę dodać, że to nie jest tylko taka, powiedzmy pozytywne myślenia o przyszłości, ale trzeba też pamiętać, że to są bardzo drogie rozwiązania i wojna w Ukrainie pokazuje, że typowe konwencjonalne środki są używane i na dużą skalę, natomiast te nowe technologie wspierają w pewnym zakresie. Natomiast myślę, że rozwinięcie tego typu maszyny będzie bardzo KO kosztowne i bardzo zatem ryzykowne, dlatego państwa natomiast wracając do pani pytania, rzeczywiście to jest ten cały problem, co powiedzieć, że to był błąd oprogramowania i nikt nie jest jest odpowiedzialny. Po pierwsze, państwo zawsze jest odpowiedzialny za to, co się dzieje w jego siłach zbrojnych, co robi jakikolwiek szeregowy dowódca wojskowy, jak pójdzie coś nie tak również z konwencjonalnym sprzętem nie tylko tym mail. Co może się zepsuć? Wiemy przecież, że różne pociski nie latają tam dokładnie, gdzie miały lecieć i trafiają nawet na terytoria państw postronnych dla konfliktu. Natomiast, więc po stronie państwa mamy taką zwaną odpowiedzialność obiektywną, nie trzeba udowadniać winy, jest to był to dron danego państwa. Miejmy nadzieję, że był oznakowany, że można przypisać, w której strony to był dron i mamy odpowiedzialność państwa, tylko, że odpowiedzialność państwa jest zazwyczaj finansowa. Jest to wypłata jakiegoś odszkodowania, zazwyczaj w drodze ugody, co nie co może być czasem sprzeczne z interesami ofiar, bo one by najbardziej chciał np. żeby ktoś został uznany za winnego jakiś państwo. No ale po drugie mamy bardzo duży problem dla prawników odpowiedzialności indywidualnej, czyli, który żołnierz dowódca programista ma odpowiadać za ten błąd, no bo on jakoś powstał nie możemy nie powinno być tak, że jakieś działania przedmiotów, bo tym byłaby też na inteligencja, byłyby pozbawione jakichkolwiek konsekwencji dla ludzi, którzy zdecydowali się na ich użycie w pierwszym miejscu, więc na ten moment wychodzi na to, że zgodnie z prawem międzynarodowym to dowódca jest ten dowódca, który podjął decyzję o użyciu danego środka walki danej broni. Jest odpowiedzialny za tą swoją decyzję. Natomiast to są myślę, że to zasadne słowa krytyki wobec takiego podejścia, no bo ten dowódca może nie do końca zdawać sobie sprawę z możliwości takiego błędu. Możemy powiedzieć, no ale powinien zawsze uwzględniać, że może dojść do jakiegoś błędu. Natomiast no nie do końca tak to działa i czy ten dowódca ma możliwość panowania nad tym sprzętem na ten algorytmem i też mówi się właśnie w tych dyskusjach o tym, że może ten Fakt nieprzewidywallności suszej inteligencji będzie takim praktycznym hamulcowym dla stosowania tego przez dowódców, bo oni nie będą chcieli ponosić.
Negatywną ufali też może.
No właśnie mogą też nie ufil trzeba zobaczyć, że ta odpowiedzialność dowódcy jest oparta na tym, że on ma praktyczną możliwość ograniczoną, ale, ale w strukturach wojskowej ma możliwość za pomocą dyscypliny hierarchii obowiązku wykonywania rozkazów przez podwładnych ma możliwość oddziaływania na tych ludzi, którzy potem dokonują ataku. Natomiast nie ma za bardzo wpływu na to, jak tworzony jest algorytm, bo on jest zazwyczaj tworzony przed w ogóle tym konfliktem zbrojnym nie bierze udziału, zazwyczaj w testowaniu tego algorytmu, więc tak naprawdę może mu nie ufać albo z drugiej strony możemy mu ufać za bardzo, bo też mówi się o tym w kontekście rozwoju szszej inteligencji, że my jako ludzie mamy taką tendencję do ufa w w informacji, które uzyskujemy od różnych maszyn, od kalkulatora od komputera od skomplikowanego programu, który nam wylicza coś w pracy. No to i to niestety na polu walki też ma znaczenie. No opieramy się na.
Tych rzeczach negatywnych, ale też z perspektywy prowadzącego wojny. Oczywiście tutaj w tle jeszcze mamy cywilów, to na osobną dyskusję no ale jakby wejdźmy w tą rolę dowódcy, to dowódca chce tak zdobyć zdobyć teren bądź go odzyskać i na pewno oszczędzać życie swoich żołnierzy. To może taka wojna zupełnie bez żołnierzy, gdzie mamy maszynę, która sama jest w stanie załadować pociski i wystrzelić czołgi, które będą w stanie jeździć takie czołgi autonomiczne, może tam tych żołnierzy na miejscu po prostu nie będzie musiało być myśli pani, że to jest realne coś tedzież kompletnie w ogóle część fiksion za drogie. Nikt nie będzie w stanie sobie na coś takiego pozwolić.
Myślę, że jak już skolonizujemy Marsa, to być może okej, ale no musimy popatrzczyć na te realalistycznie, że na nasze planecie, gdzie układ się jest, jaki jest mamy mocarstwa technologiczne i wojskowe, które toczą wojny nie między sobą. Starają się jak najbardziej ich nie toczyć na polu walki przenoszą tą walkę na rynki na inne niewojskowe, pola bitwy może tak powiedzieć, a zazwyczaj mamy słabszą stronę technologicznie, no finansowo, która nie wyobrażam sobie, żeby w tym momencie jakieś mocarstwo, które właśnie mogłaby sobie pozwolić na rozwinięcie takiej armii toczyło wojnę z biedniejszym krajem, który nie jest w stanie sobie na to pozwolić, bo do tego. No to ten scenariusz, o którym pani mówiła by się nie spełnił, bo po 2 stronach nie byłoby tych robotów, a po drugie, no to byłaby straszna straszna perspektywa. I mam nadzieję, że do czegoś takiego nie dojdzie właśnie ze względów chociażby finansowych, aczkolwiek tak podnosi się, że rzeczywiście używanie i dronów, które oddalają żołnierze od pola walki i sztucznej inteligencji, która mogła przecież nie ma rodziny, nie ma uczuć. Nie utrata tego sprzętu jest znacznie mniej bolesna dla społeczeństwa i też dla rządzących, którzy muszą się potem politycznie rozliczać ze strat w żołnierzach. No jest to jest to jakiś argument, którym przemawia za tym, żeby iść tą stronę, natomiast no tak jak powiedziałam, nie ma na razie warunków na tej planecie, żeby, żeby takie czyste wojny pomiędzy rowatami tzw proxywars się się odbywały.
To skoro już tak na koniec, skoro to jest w zasadzie wizja, którą aktualnie nieszczególnie powinniśmy zaprzątać sobie głowę, to w pani opinii, czym powinniśmy nie wiem, jako obywatele przyglądać się właśnie, jak to się rozwija. Co tutaj jest bardziej realne bliższe namacalne coś, co powinno być regulowane tak na koniec taka nie wiem, dekady powiedzmy 20 lat.
Myślę, że jako obywatele i ludzie powinniśmy przede wszystkim popatrzeć na te niewojskowe zastosowania sztucznej inteligencji, które już są wokół nas, i które w znacznie większym zakresie wpływają na nasze życie. I miejmy nadzieję, że to wojskowe nie będą w ogóle musiały na wpływać na nasze życie i żebyśmy zobaczyli, gdzie ta sztuczna innggencja jest wykorzystywała w naszych miejscach pracy w naszym społeczeństwie nadchodzącej debacie politycznej związanej z wyborami, gdzie nasze codzienne życie jest w jakiś sposób przez te wszystkie smartfony, które nas otaczają kontrolowane, gdzie podajemy swoje dane, na których budowane są potem te różne silniki sztusze inteligencji. I gdzieś tam przez tylne drzwi wpływają na nasze zachowanie, a wydaje mi się, że tej debaty nie ma może nie jest ona aż tak pociągająca. Jak właśnie science fiction i wojna, natomiast ma rzeczywiste skutki psychologiczne finansowe, no i społeczne dla nas wszystkich.
Bardzo dziękuję. Pani dr Kaja kowalczewska, adiunktka w inkubatorze doskonałości naukowej, centrum di dtal jastis na Uniwersytecie wrocławskim. Dziękuję pani bardzo za te poranne sobotnie refleksje.
Dziękuję i życzę miłego dnia.
Miłego dnia dziękuję bardzo. Zwiń «
PODCASTY AUDYCJI: PORANEK RADIA TOK FM - WEEKEND - KAROLINA GŁOWACKA
-
-
16:02 W studio: dr Andrzej Kassenberg , Dominika Lasota
-
08:43 W studio: Joanna Solska
-
14:37 W studio: prof. Maciej Mrozowski
-
REKLAMA
POSŁUCHAJ RÓWNIEŻ
-
-
30.09.2023 18:00 Szkoda czasu na złe seriale36:30 W studio: dr Agata Loewe
-
30.09.2023 11:00 Godzina Filozofów44:27 W studio: Artur Nowak , Tomasz Terlikowski
-
30.09.2023 07:20 Poranek Radia TOK FM - Weekend20:50 W studio: dr Konrad Maj
-
30.09.2023 08:00 Poranek Radia TOK FM - Weekend08:43 W studio: Joanna Solska
-
30.09.2023 07:40 Poranek Radia TOK FM - Weekend14:37 W studio: prof. Maciej Mrozowski
-
-
30.09.2023 08:40 Poranek Radia TOK FM - Weekend15:36 W studio: Natalia Broniarczyk , dr Zofia Szweda - Lewandowska
-
30.09.2023 08:20 Poranek Radia TOK FM - Weekend16:02 W studio: dr Andrzej Kassenberg , Dominika Lasota
-
30.09.2023 08:59 Tak rośnie jedzenie59:32 TYLKO W INTERNECIE
-
30.09.2023 12:00 Magazyn filozofa - Tomasz Stawiszyński37:13 W studio: Michał Kacewicz
-
30.09.2023 07:35 Pod dyktando
-
-
30.09.2023 11:59 Pod dyktando
-
-
30.09.2023 10:40 Młoda Polska14:03 W studio: Jagoda Pijaczyńska
-
30.09.2023 10:00 Młoda Polska22:31 W studio: Kacper Nowicki
-
30.09.2023 12:29 Pod dyktando
-
30.09.2023 13:00 Magazyn filozofa - Tomasz Stawiszyński24:26 W studio: Joanna Nawrocka
-
30.09.2023 13:40 Homo Science25:38 W studio: Leon Ciechanowski
-
30.09.2023 14:20 Człowiek 2.026:39 W studio: dr Izabela Kowalska-Leszczyńska
-
30.09.2023 15:40 Twój Problem - Moja Sprawa21:36 W studio: Tomasz Włosok
-
30.09.2023 16:10 Kampania w TOKu24:18 W studio: prof. Dorota Piontek , prof. Rafał Chwedoruk
-
30.09.2023 15:00 Skołowani28:09 W studio: Rafał Glazik
-
30.09.2023 16:00 Kampania w TOKu04:47 W studio: Pani Joanna
-
30.09.2023 15:20 Twój Problem - Moja Sprawa19:00 W studio: Katarzyna Rozenfeld
-
30.09.2023 16:40 Kampania w TOKu14:16 W studio: Klara Klinger
-
-
-
30.09.2023 21:00 Weekend Radia TOK FM49:12 W studio: Filip Piotrowski
REKLAMA
DOSTĘP PREMIUM
TOK FM Premium 40% taniej. Radio TOK FM bez reklam, podcasty z audycji i podcasty tylko dla Subskrybentów.
KUP TERAZSERWIS INFORMACYJNY
REKLAMA
REKLAMA
REKLAMA
-
TOK FM
-
Polecamy
-
Popularne
-
GOŚCIE TOK FM
-
Gazeta.pl
-
WYBORCZA.PL