gościem programu jest Filip Konopczyński z fundacji Panoptykon dzień dobry dzień dobry panie redaktorze dzień dobry państwu jeśli pan pozwoli na rozmowę zacznę od takiej prywatnej anegdoty Otóż syn moich znajomych, który uczęszcza do brytyjskiej szkoły miał zadany esej do napisania literatury angielskiej no to zadanie scedował na sztuczną inteligencję, czyli na czat PIT-y, który wywiązał się z tego zadania perfekcyjnie napisał piękny esej dziecko moich znajomych oddało
Rozwiń »
go do szkoły na, ale nauczycielka nabrała pewnych wątpliwości co autorstwa tego eseju przepuściła go przez specjalny program wychwytujący plagiat, ale nic nie wykrył, ponieważ sztuczna inteligencja napisała oryginalny tekst no i teraz właściwie można było zadać pytanie, kto napisał ten esej, kto właściwie ma dostać stopień z literatury no to jest bardzo ciekawa historia i faktycznie to jest to jest taki wątek, który pojawiał się pojawiał się już dyskusji i on ma bardzo bardzo różne możliwości interpretacyjne to znaczy oczywiście możemy spojrzeć na to od strony prawnej i zadać pytanie o to czy są autorskie ma prawo do praw własności tak intelektualnej to jest pierwsze pytanie czuł się w tym zakładam, że wiemy, który produkt tutaj chodzi o w związku z tym, że ten rynek tych o jej modeli sztucznej inteligencji ogólnego użytku takiego generalnego użytku, bo o tym tutaj rozmawiamy on rośnie ale, ale tutaj można wskazać tego lidera, czyli na czarny dziki który, który jest oferowany przez open jej taj, który powstał jako Fundacja Teresy z prywatną firmą tak, więc jeżeli spojrzeli byśmy do regulaminu tego serwisu tam tam właściciele modelu właściciele tego programu przekazują pełnię praw przejęta deklarują przekazują pełnię praw użytkownik tak oczywiście za przekazaniem praw idzie także odpowiedzialność przynajmniej tego można się domyślać tylko problem jest taki, że z punktu widzenia takiego nawet krajowego, ale przede wszystkim globalnego systemu prawnego to jest tylko wyłącznie deklaracja pewnej firmy tak która, która by po pierwsze, może zmienić zdanie tutaj to bym określił jako taki największe ryzyko z punktu widzenia osób, które korzystają z tego typu urządzeń mówili nie tylko tych chatbota czy właśnie generatora tekstu, ale także tych wartych od systemu które, które by to pozwala tworzyć obrazy animacje, że ten właściciel tego prawa może zmienić zdanie wtedy byłaby trudna sytuacja np. dla tych osób, które publikowały takie zdjęcia czy teksty, żeby dowieść, że oni faktycznie są autorami, kiedy ten regulamin lub inne nas oczywiście problem dotyczy tylko z porozumienia między czy relacji między firmą deweloperem a, a użytkownikiem takim osobą fizyczną, ale wnuk jest bardziej ogólne to znaczy, jeżeli zapytamy urocza reguluje sztuczną inteligencję to 2023 roku nie dostaniemy prostej odpowiedzi tak, bo zarówno w stanach Zjednoczonych Unii Europejskiej czy Chinach to to nie jest jeszcze bardzo szczegółowo rozwiązane myślę jeszcze są takie ruchy jak właśnie na terenie naszej wspólnoty europejskiej podejmowane przez przez komisję przez parlament obecnie obecnie prace nad aktem sztucznej inteligencji są właśnie już, że w fazie dyskusji zaś tylko pytanie czy starczy nam wyobraźni jeśli chodzi o regulowanie sztucznej inteligencji, bo tak to z inteligencją wyważona bardzo często wymyka się w zakładanym na nią Ramon i w no co pokazuje właśnie ten szkolny spór esej bardzo trudna w przypadku działania sztucznej inteligencji to regulować no bo tutaj chyba ska jest limit to znaczy w w przez to że, że to jest w to jest właściwie jakiś rodzaj sieci no boję się, że tutaj bym regulacje mogą nie nadążyć za za za rozwojem tego narzędzia niewątpliwie jest takie ryzyko natomiast nie popada bym w taki przesadny pesymizm będą na pewno by bardziej wierzę w to, że wystarczają wyobraźni niż to, że wystarczy nam państwo czasu, aby bez w tej krótkiej rozmowie nawet zarysować ich problemy, z którymi będziemy borykać, niemniej to nie jest także urzędnicy politycy czy eksperci, którzy zajmują się regulacjami właśnie siadają rano przed pustym dokumentem tekstowymi zastanawiają się napisać te kontakty między zarówno sektorem prywatnym biznesem zajmującym się sztuczną inteligencję jak co może ważniejsze naukowcami, a one są i to nie jest także np. Unia europejska albo biały dom przez Kongres amerykański tworzy regulacje nie mając na uwzględnieniu interesów i też na stan faktyczny nie potrafi wyobrazić ale, żeby też unaocznił państwu naszym słuchaczom czym właściwie sztuczna inteligencja jest jak bardzo nas już otacza bardzo często w różnych call Center do różnych instytucji firm, do których państwo zwolnią nie rozmawiają państwo człowiekiem tylko właśnie z takim czas potem, czyli sztuczną inteligencją która, że jest dobrze skonstruowana zaprogramowana dla bardzo sprytne imituje człowiek odpowiada napytania potrafi załatwiać nasze sprawy teraz potrafię wyobrazić, że tego typu sztuczna inteligencja tego typu chatboty używane przez osobę nieuczciwa albo takie, które chcą wprowadzić nas w błąd oszukać okraść albo zmanipulować np. politycznie czy siać zamęt nienawiść no mają w ręku narzędzie piekielne no bo już tutaj oczywiście algorytmy, które podszywają się pod ludzi raczej nieuczciwe osoby, które chcą je do tego celu wykorzystać to jest 1 problem myślę, że to także było podnoszone w tej dyskusji duży dysk spore zagrożenie mogą być także może być także używanie tego typu narzędzi do tworzenia kodu oprogramowania, bo ułatwia to np. cyberprzestępcom tworzenie tworzy niemal zeru jakiegoś oprogramowania szpiegowskiego, więc tutaj istnieje ryzyko natomiast znów jak to z postępem technologicznym są także zastosowania które, które już pozwalają osobom, które zajmują się ochroną bezpieczeństwa lepiej wykrywać pewne zagrożenie rozpoznawać rozpoznawać ewentualne ataki tutaj ten przykład z pracą domową z języka angielskiego też jest dobry, bo także powstają powstają takie programy, które pozwolą w przyszłości nauczycielom rozpoznawać, jaki tekst powstał przy użyciu sztucznej inteligencji, aczkolwiek być może nie będą tak bardzo potrzebne, bo jak widać nauczyciele na razie przedni są w stanie rozpoznać, jeżeli nie uczeń, który niekoniecznie jak posługiwać się szekspirowską frazą przez ostatnie 2 lata nagle zaczyna pisać pisać pisać sonety, które mają odpowiednią liczbę odpowiednią liczbę z głosem i jeszcze szermują, tak więc nie jesteśmy bezradni tutaj to jest tak tak, ale one nieważne nie może tworzenia niemożna uczniom odmawiać prawa do postępu no, więc tutaj taki taka nauczycielka, która mówi nie to jest za mądre jak macie już słyszałem od tych na to, aby powrócić do ręcznego pisania, czego osobiście byłbym wielkim wrogiem będą od grafik ale, ale rozumiem, że cywilizacyjna potrzeba może może być taka, że po prostu klasyki dalej będą pisane ręcznie i trzeba będzie nieco przemodelować system edukacyjny ale, ale to jest to jest może większy problem, ale tutaj chciałbym podkreślić pozytywną stronę, bo tego typu tego typu modele tego typu Software, który w, które właśnie z tego prawnego urzędniczego punktu widzenie jest nazywany jest taką sztuczną inteligencją w Wiedniu ogólnego przeznaczenia takiej i także się pojawia w tym dyskursie np. na terenie Unii Europejskiej ważne jest to tutaj celowo podnosi ten punkt aby, aby przyjąć do szczegółowej regulacji tego obszaru, bo niestety pojawiają się takie głosy także w parlamencie europejskim, które chciałyby chciałby usunąć artykuł dotyczący właśnie tego typu systemów i traktować po prostu jak wszystkie inne systemy oparte na sztucznej inteligencji natomiast tak jak tak jak mówię to są wszystko narzędzie, jeżeli pomyślimy o użyciu takiego generatora tekstu, bo generatora obrazów dalej możemy sobie wyobrazić, że może to usprawnić pracę może to nieco zmienić zmienić model działania pracowników, ale dalej będzie osoba, która będzie przed kąpielą wała zmieniała kolory wprowadzała te dni kontekst łączyła np. generowany tekst generowanym obrazem i to ta osoba bądź instytucja, której ona pracuje na rzecz, której ona wykonuje działania powinna ponosić to jest moje zdanie powinno ponosić odpowiedzialność, bo tak, ale mimo tych ja tutaj studził entuzjazm jeśli chodzi o tego jak od nas przewidywanie jak będzie to znaczy widać wyraźniej jak niezwykle marnie sprawdza się futurologia w tym aspekcie bardzo ważny punkt na ilość i w przypomina mi się takie opowiadanie Lema to było jedno z opowiadań o pilocie pierwsze, gdzie no był już laty międzygwiezdnej w ogóle w technologia bardzo potrzebowała, ale bohaterowie wciąż chodzili do budki zadzwonić i to jest opowieść o tym jak bardzo mało wiemy o przyszłości szczególnie związanej z rozwojem technologicznym no tutaj oczywiście można się posługiwać filmami science-fiction w ostatnia była też dosyć mocno kwalifikowana ta dyskusja o sztucznej inteligencji w Microsofcie i jej prawach pracowniczych jak sądzę był to chwyt reklamowy, ale z drugiej strony potrafią psy wyobrazić taką przyszłość, że czas, bo od imituje uczucia imituje można się np. zaprzyjaźnić jak takie rzeczy regulować i czy regulować na wydaje się, że tutaj nic znowu powinniśmy przyjąć perspektywę tak jakby to po prostu była kolejna technologia, którą mamy takie samochody tak jak samoloty tak jak broń palną tak lasery też pewnych przypadkach zastosowania jest to jest to fantastyczne, bo mamy mamy mamy możliwość dokonania niesamowitego postępu tak będzie na pewno wykorzystają sztuczną inteligencję np. medycynie wyobraźmy sobie jak bardzo ułatwi to przed komunikację osobom, które które, które są sparaliżowane wojsk z innych powodów, aby do tej pory płacił sposób wchodzić relacje ze światem, a pewnych obszarach będzie to powinno być karane zabronione i by oczywiście powinniśmy powinniśmy mieć głowy te czarne scenariusze, ale raczej wartości borykać z tymi problemami wtedy, kiedy one się pojawiają, czyli np. prawa autorskie do dzieł, z których korzysta dana dany model sztucznej inteligencji tak czy czy powinniśmy się dzielić tak jak do tej pory było promowane wszystkimi danymi jako społeczeństwo jako użytkownicy, bo po prostu nasze dane nasze dane osobowe i rzeczy prywatne jest często albo właśnie nasze utwory stają się staje się pożywką dla tych modeli generacyjna, które bez nich nie byłyby tak jak dokładnie to jest 1 obszar inny obszar związany właśnie odpowiedzialnością za ewentualne szkody czy przestępstwa, kto powinien być obarczony, kiedy osoba która, która wykorzystuje taki model może przerzucić jakąś część całej odpowiedzialności na projektanta systemu i powinniśmy się zastanawiać, jakie są granice wolności słowa czy czy uznajemy za mowę nienawiści czy mogę przestępczą w odniesieniu do tego co na poziomie interfejsu powinna móc się pojawiać takie jak generować jakiś potworny rasistowski seksistowski tekst i czy powinienem mieć taką możliwość ten program już wcześniej powinien usuwać tego typu rzeczy się poniekąd dzieje tak to sami deweloperzy i etycy technologiczni sprawiają że, że takie kontrowersyjne funkcję często usuwane na nie powinniśmy się zastanowić jak i jak regulować kwestie z potencjalnej gigantyczne nierówności, bo nie sądzę żeby, żeby np. tego typu generatory były w stanie zastąpić ani pracowników mediów czy czy programistów albo albo inne osoby, które jednak bazują na jakiej formie tekstu natomiast można sobie wyobrazić, że tej pracy będzie mniej albo, że osoby, które lepiej operują nowymi narzędziami będą mogły zarobić znacznie więcej ach, ale stracą zeszły łączą świat historia o pracy domowej bardzo dziękuję za tę rozmowę i mam nadzieję, że jeszcze będzie możliwe wrócić to tak naprawdę fascynujące bardzo ważny też tak uważam tylko Kopczyński z fundacji Panoptykon był gościem państwa moim, a teraz informacji, a teraz na poważnie
Zwiń «
PODCASTY AUDYCJI: A TERAZ NA POWAŻNIE
-
13:11 W studio: Paula Szewczyk
-
13:19 W studio: Michał Kamiński
-
14:31 W studio: dr Łukasz Pawłowski
-
14:20 W studio: Adrian Brona
-
12:31 W studio: Hanna Gill – Piątek
REKLAMA
POPULARNE
-
22.02.2017 12:00 A teraz na poważnie25:59 W studio: Borys Budka , Marek Ruciński
-
25.01.2018 12:00 A teraz na poważnie27:49 W studio: prof. Przemysław Waingertner
-
-
-
16.04.2018 12:00 A teraz na poważnie25:16 W studio: prof. Radosław Markowski
-
22.01.2018 12:00 A teraz na poważnie26:03 W studio: prof. Rafał Pankowski
-
29.01.2018 12:00 A teraz na poważnie29:00 W studio: Dominik Szczepański , Marek Cichy
-
-
21.09.2022 12:40 A teraz na poważnie13:48 W studio: Jacek Żakowski
-
11.09.2017 12:00 A teraz na poważnie24:40 W studio: Adam Michnik
-
18.10.2021 12:40 A teraz na poważnie12:39 W studio: Piotr Najsztub
-
26.01.2018 12:00 A teraz na poważnie24:49 W studio: Leszek Jażdżewski
-
15.04.2020 12:00 A teraz na poważnie26:23 W studio: Monika Sznajderman
-
30.12.2021 12:00 A teraz na poważnie25:12 W studio: Mirosław Pęczak
-
14.12.2020 12:00 A teraz na poważnie06:07 W studio: Krystyna Janda
-
19.01.2017 12:00 A teraz na poważnie24:42 W studio: Jan Englert
-
28.04.2020 12:00 A teraz na poważnie26:51 W studio: prof. Marcin Król
-
-
20.04.2022 12:40 A teraz na poważnie12:47 W studio: Kamil Przełęcki
-
17.11.2020 12:00 A teraz na poważnie24:16 W studio: Anna Pamuła
-
-
-
30.09.2022 12:40 A teraz na poważnie14:36 W studio: Masza Makarowa
-
20.08.2021 12:00 A teraz na poważnie25:49 W studio: prof. Krzysztof Meissner
-
10.06.2020 12:00 A teraz na poważnie22:37 W studio: Piotr Pytlakowski , Rafał Jankowski
-
22.04.2020 12:00 A teraz na poważnie25:32 W studio: Włodzimierz Cimoszewicz
-
19.11.2020 12:00 A teraz na poważnie10:12 W studio: dr Piotr Kładoczny
-
16.09.2022 12:40 A teraz na poważnie12:55 W studio: płk Grzegorz .Małecki
-
26.06.2020 12:00 A teraz na poważnie24:15 W studio: Jerzy Baczyński
REKLAMA
DOSTĘP PREMIUM
Wszystkie audycje, kiedy chcesz! Teraz TOK FM Premium 30% taniej: podcastowe produkcje oryginalne, Radio TOK FM bez reklam i podcasty z audycji. Nie zwlekaj, słuchaj wygodniej!
KUP TERAZSERWIS INFORMACYJNY
REKLAMA
REKLAMA
REKLAMA
-
TOK FM
-
Polecamy
-
Popularne
-
GOŚCIE TOK FM
-
Gazeta.pl
-
WYBORCZA.PL