REKLAMA

A jeśli sztuczna inteligencja oceni cię źle? Są projekty nowych przepisów

Panoptykon 4.0
Data emisji:
2022-10-20 17:10
Audycja:
Prowadzący:
Czas trwania:
43:02 min.
Udostępnij:

W sztucznej inteligencji niektórzy widzą zbawienie dla ludzkości: Rozwiń »
zwiększenie wydajności pracy, trafne rozpoznawanie chorób czy zwolnienie ludzi schematycznych, nużących zajęć, które szybciej wykona inteligentny komputer.

Coraz głośniej mówi się jednak o tym, że w pakiecie z technologicznym postępem przyjdą nowe problemy. W przypadku systemów SI zagrożenia są jak najbardziej realne – widać je gołym okiem już dziś. W wynikach rekrutacji prowadzonych z pomocą uczących się algorytmów (często i słusznie “oskarżanych” o dyskryminacyjne wzorce); w krzywdzących ludzi rozstrzygnięciach systemów analizujących ryzyko (w bankach, urzędach pracy, urzędach skarbowych, a nawet w wymiarze sprawiedliwości); w
omylnych (a nierzadko “uprzedzonych rasowo”) systemach rozpoznawania twarzy… Lista niepokojących sygnałów jest, niestety, dłuższa.

Sztuczna inteligencja sama z siebie nie jest ani nieomylna ani
„sprawiedliwa”. System wytrenowany na niekompletnych czy błędnych danych po prostu nie będzie działał prawidłowo. Podobnie jak system, któremu projektujący go lub nadzorujący człowiek źle postawił zadanie.

W tym roku Unia Europejska pracuje nad aktem o sztucznej inteligencji, który miał, z jednej strony, zwiększyć zaufanie ludzi do tej technologii, z drugiej - wspierać rozwój innowacji, a więc szanse europejskich firm w technologicznym wyścigu. W strategii sprzed dwóch lat Komisja Europejska chciała oba te cele pogodzić w podejściu, które oddaje jedno słowo: “excellence”. Doskonała technologia. Dobrze zaprojektowana, skuteczna i budząca zaufanie ludzi.

O AI Act przeczytasz więcej w raporcie „Sztuczna inteligencja pod
kontrolą”

Czy to wszystko da się pogodzić? Jak ambicje Komisji Europejskiej
przełożyły się na język konkretnych przepisów? Co właściwie czeka nas, użytkowników technologii i jej twórców w najbliższej przyszłości? Jeszcze większy chaos na rynku czy nowy porządek?

O tym wszystkim rozmawiamy z dr. Michałem Nowakowskim - prawnikiem, ale też praktykiem (zarządza start-upem, w którym wdraża etyczne rozwiązania oparte na AI) i naukowcem (współpracuje min ze śląskim Centrum Inżynierii Prawa, Technologii i Kompetencji Cyfrowych). Zwiń «

AUTOMATYCZNA TRANSKRYPCJA PODCASTU

Transkrypcja podcastu
Panoptykon 40 dzień to gest to programista samouk, zanim dostał dobrze płatną pracę w sektorze IT z trudem ukończył szkołę średnią w Kalifornii, a nie tylko nie trafił na prestiżową uczelnię on w ogóle nie poszedł na studia otworzył mały biznes i robił nadruki na koszulkach nauczył się programować dopiero kiedy doszło do wniosku, że potrzebuje strony internetowej potem wciągnęła go społeczność programistów w parlamencie napisał kod, który jest GitHub, czyli Rozwiń » miejsca, gdzie kot jest publikowany dostępne dla całej społeczności ściągnęło 100 innych programistów i właśnie to zdarzenie wychwycił algorytm opracowany przez firmę rekrutacyjną ginący uczący się algorytm miał zadanie typować uzdolnionych programistów nieoczywistym CV i właśnie zrobił winnymi z firmy utrwaliło się potem w mediach, że ich algorytm wyszukuje talenty tam, gdzie zwykli rekruterzy nawet nie zaglądają np. na polskich portalach mający, bo jak się okazuje wielu utalentowanych programistów lub małym powiecie świetnie i wreszcie jakieś miłe niebudzące kontrowersji zastosowanie ja praca sama szuka człowieka i podąża za jego talentami, ale nie tak szybko ta anegdota zainteresowała się w firmie autorkę broń matematycznej zagłady Kessie hobbystycznie tropi algorytmiczny przechyły i inne typowe błędy w projektowaniu jak tym razem też wykryła dyskryminujący wzorzec okazało się, że algorytm pilot może nieźle typu programistów bez formalnego wykształcenia, ale te tuje ich w tych społecznościach, które są zdominowane przez mężczyzn właśnie takich jak GitHub czy portal Amandy dyskryminacja kobiet reputacji to żadne zaskoczenie wiemy o tym od dawna podobnie jak to uczące się algorytmy bazują na wzorcach zaś tych danych i dlatego tak często jeśli nie nadzorowane powielają utarte już schematy stereotypy na tym samym błędzie potknął się nawet Super innowacyjny Amazon, którego algorytm oceniający CV również preferował mężczyzn wiemy wszystko, bo akurat wyniki rekrutacji są jawne trudno ukryć mamy konkretne dane pokazujące strukturę zatrudnienia kobiet mężczyzn w różnych sektorach i te dane dają dużo domyślenia leki ktoś zaczyna na jakim etapie kobiety wycofują są w wyścigu lepszy kariery, jaka jest korelacja między ambicjami, a treściami, jakie są im serwowane w mediach społecznościowych do ilu z nich nie docierają atrakcyjne tereny zwane oferty na portalu takie Kling kim trochę mniej mówi się o tym, że również za te rekomendacje odpowiadają uczące się algorytmy, dlaczego mówią o tych problemach właśnie teraz w październiku 2022 Otóż właśnie w tych miesiącach Unia europejska pracuje nad rozporządzeniem, które miało dobrze postawione ser zwiększyć zaufanie do systemów inteligencji, a jednocześnie wspierać rozwój strategii sprzed 2 lat komisji Polska chciała, aby te rzeczy pogodzić pod hasłem ekscesy co skonała technologie to dobrze zaprojektowana przetestowana skuteczna, a zarazem budzące zaufanie, a więc nie dopełniając oczywistych błędów niedyskryminujące ludzi czy to wszystko da się pogodzić jak ambicje komisji rosyjskiej przełożyły się na język konkretnych przepisów i czy to wszystko kolokwialnie mówiąc trzyma się kupy o tym rozmawiam dziś z wybitnym specjalistą od tematu wśród inteligencji jest ze mną dr Michał Nowakowski prawnika też praktyk zarządza start-upem, który próbuje sam wdrażać etyczne rozwiązania oparte o jaj i naukowiec miał Nowakowski pracuje m.in. ze śląskim centrum CYBERSEC jest ja nazywam się Katarzyna Szymielewicz zapraszam was na kolejny odcinek podcastu Panoptykon 40 Panoptykon 40 podcast tokfm PL fundacji Panoptykon cześć cześć cześć witam w podcaście Panoptykon 40 dzięki, że przyjął zaproszenie i to rozmowy o proste w temacie zdecydowanie na temat sztucznej inteligencji w kontekście regulacji to jest temat rzeka tak naprawdę próbujemy jakoś skanalizować, żeby nie popłynąć ty pamiętasz jeszcze swoje pierwsze wrażenie, kiedy zobaczyłeś propozycję tego konkretnego aktu prawnego w naszej branży czekaliśmy dość długo aż komisja coś pokaże to napięcie rosło od 2020 roku no i co i zaskoczenie czy ja byłem troszeczkę zaskoczony, tym bardziej że taka pierwsza w ogóle wersja oczy pierwsza próba uregulowania tego jeszcze była w 2019 roku, jeżeli dobrze pamiętam, bo gdzieś początek 2020 roku, kiedy mówiliśmy rozporządzenie w sprawie systemów sztucznej agencji wysokiego ryzyka mamy okres odpowiedzialności tam było wszystko nic tak naprawdę w tym rozporządzeniu natomiast kiedy pojawiło się to w kwietniu 20000601. roku rozporządzenie to oczywiście pojawiła się ekscytacja zresztą ekscytacji było widać nie tylko mnie po tym, jak opublikowałem takie pierwsze opracowanie właśnie na ten temat to też było widać, że jednak społeczności taka bardzo szeroka powiedział była tematem bardzo zainteresowana potem powiedzmy z kolejnymi miesiącami rzeczywiście talent ze trochę zaczynał zaczyna przygasać były też takie momenty pików z tego zainteresowania, kiedy pojawiały się jakieś nowe akty i teraz tak prawdę powiedziawszy prawie 2 lata może 1,5 roku, a po opublikowaniu tej pierwotnej pierwotnej wersji mam wrażenie, że niektórzy są po prostu zmęczeni kolejnymi operacjami czekaniem na ostateczną ostateczną wersję to prawda, a drugi to właśnie teraz robić naprawdę gorąco dlatego teraz o tym rozmawiamy ponieważ parlament rosyjskim teraz trwają negocjacje tych przepisów za chwilę wejdziemy w bardzo ważny moment negocjacji między parlamentem radą, czyli rządami tej w tym polską i samą komisję, która to wszystko zacięła i wtedy będziemy wreszcie mógł mówić o konkretach, a wracając do numeru do konkretów czy uda się jasne, czego w ogóle dotyczyć regulacje to jest twoim inwigilacja sztucznych elegancji jednak coś innego wiesz co ja mam takie wrażenie, że problemem w ogóle na na poziomie na poziomie takim politycznym powiedziała mam wrażenie, że jednak to był projekt bardziej politycznej takiej stricte ekspercką pomimo tego, że mówimy o komisji europejskiej jest pewien brak zrozumienia takich realnych zagrożeń realnych ryzyk związanych z systemami sztucznej inteligencji zresztą prawdę powiedziawszy jak często rozmawiam z różnymi ludźmi to naprawdę bardzo, a takim będzie o zróżnicowanym poziomie zrozumienia pewnych zagadnień związanych ze sferą szeroko rozumianej cyfryzacji to wrażenie, że ludzie nie rozumieją czym są w ogóle systemy sztucznej inteligencji, które komisja teraz parlament próbuje w jakiś sposób zdefiniować czym są trwałym zdań moim zdaniem moim zdaniem jest technologia każda inna to właściwie oprogramowanie tak naprawdę, które przede wszystkim jest tworzony przez człowieka oczywiście z zastosowaniem pewnych jakiś tam określonych technik uczenia maszynowego uczenia głębokiego przetwarzania języka naturalnego nawet z no te metody statystyczne Izby tutaj akurat 1 worka wrzuca tak, ale zasadniczo są wszystkie właśnie takie rozwiązania, które w mniejszym lub mniejszym stopniu uczą się uczy jak i zależności de facto, dlaczego statystyczne metody nie to jest to trudny temat tak w ogóle bo, gdybyśmy sięgnęli znowu do definicji, która została zaprezentowana w tym projekcie rozporządzenia w sprawie sztucznej inteligencji ósmy akt jest bardzo bardzo szeroki jest bardzo bardzo szeroka w załączniku trzeci mamy dodatkowo wskazany katalog technik czy podać, które możemy zastosować, a żeby uznać oczywiście przy spełnieniu pozostałych przesłanek, że jakieś oprogramowanie jest traktowana jako system sztucznej inteligencji miałem okazję uczestniczyć w procesie opiniowania też tego aktu prawnego i 1 taki właśnie elementów, który zwrócił naszą szczególną uwaga i chęć mówi, że niesmak, ale musieliśmy to dość dużo uwag dać do samej definicji systemu sztucznej inteligencji było właśnie kwestia wrzucenia do 1 worka z technikami, które zakładają jakiś sposób samodzielnego powiedzmy uczenia się przez taki nazwijmy to algorytm czy model sztucznej inteligencji wiek daje zadaje cel zadanie to program sam kombinuje jak wykon dokładnie natomiast oczywiście tam są różne różne metody one są jest na świat uczenie maszynowe nadzorowane nie nadzór, jakbyśmy chodzili tam stopniu bardzo głośno szczeka natomiast metody statystyczne najczęściej kojarzą nam się po prostu excela i rzeczywiście prawdę powiedziawszy w wielu sytuacjach moglibyśmy sprowadzić do tego, że jakieś systemy sztucznej inteligencji byłyby ex celem tak naprawdę to jest troszeczkę chyba wyjściem poza założenia, które przyświecały jak rozumiem komisji europejskiej parlamentowi europejskiemu zresztą dwa 3 tygodnie, zanim się teraz spotkaliśmy został opublikowany kolejny projekt znaczy projekt projekt zmian w zasadzie do tego do tego aktu, gdzie już zupełnie inaczej jest skonstruowana definicja mówi już jakiś formie autonomiczności np. o czym w ogóle zaczynamy tak powiem poszukiwać innych innych ścieżek dla tej definicji systemu sztucznej inteligencji i wydaje mi się, że to wcale nie jest do końca też dobry kierunek w zasadzie z 2 z 2 powodów pierwsza bardzo trudno będzie nam zdefiniować coś takiego systemu sztuczną inteligencję, że nie zdefiniujemy sobie czym jest sztuczna inteligencja jako taka UW, a więc słyszę, że środowisku prawników, do którego którym też bardzo aktywny w tym temacie szczególnie raczej oczekiwaliby takiej precyzji i ograniczenie się przez komisję do wyłapania systemu, który się uczą, czyli są notą faktyczną SN z agencją z kolei kiedy ja o tym myślę wracam do ambicji komisji faktycznie dzisiaj trochę zatartych en to rozumiem to trochę inaczej, że Unia europejska nie taką diagnozę, że od rynku pojawią się różne ryzykowne użycia tak naprotechnologii w szerokim sensie technologii, które oceniają ludzi profilu tych ludzi rekomendują im to jest definicji komisji podkreślono, że od aut ten efekt chodzi i takie systemy często szczerze mówiąc są tym celem na takich lekkich terenach, czyli takim skryptem jakimś prostym oprogramowaniem do niego czy dołączonym no choćby niesławny system wykrywania ryzyka w kontekście nadużyć podatkowych w RM w tym podcaście już już mówiliśmy on nie był niczym wyrafinowany podobnie Polski system profilowania bezrobotnych, który w końcu został odłożony na boki i rząd zrezygnował po duży kredyt tego systemu z jego rozwijania nie był absolutnie inteligent ani uczący się, a wywoływał NTV szkody ryzyka i tu się zastanawiam, bo faktycznie czytając akt prawny ja mam potężne na tym, żeby go objąć zrozumieć, bo to jest taka krowa z głową koguta to niby jakaś Super High tek i rozwiązania, które próbujemy wyłapać z drugiej strony jak mówić to podstawa definicja jest bardzo szeroka i nawet jakieś tam wyrafinowane bardziej eksperci NATO załapie, czyli pozornie olbrzymi zakres regulacji, a z drugiej strony jak poczytamy sobie w szczegółach to jest taka piramida szerokie podstawy, ale puste w środku tam jest bardzo mało obowiązków dla jakichkolwiek systemów, które nie są bardzo ryzykowna i teraz mówi się w naszym widowisku organizacji społecznych może by powiedzieć wprost regulujemy ryzykowną technologie już zapomnijmy o tej inteligencji sztuczne, które nie do końca umiemy ją sobie tutaj w dniu zdefiniować, ale zrób coś pożytecznego społecznie, czyli zarządza ryzykiem zajmował drugą dla takie podejście w co to jest to jest bardzo dobry kierunek jeśli w ogóle w ogóle powiem jeszcze tak wprawdzie nie zawsze przy tych systemach, czyli tej technologii, który mówił mówimy o danych osobowych, ale dosyć często posługuje się pojęciami czy pojęcie, które określone w art. 22 ust. 1 RODO, czyli tak naprawdę zautomatyzowanych systemach przetwarzania danych de facto, więc ja szczerze mówiąc bliższy jest takie podejście, jeżeli byśmy rzeczywiście np. dołożyli do tego kwestie też, że mogą być dane osobowe też w tym, że tak powiem w tym micie to faktycznie może rzeczywiście lepiej byłoby skupić się na tych ryzykownych technologii, tym bardziej że zwróćmy zwrócił uwagę przecież na to, że to nie jest kwestia tylko tych systemów sztucznej inteligencji tylko to jest przykład wykorzystanie technologii rozproszonego rejestru czy technologii blockchain, która rodzi pewne ryzyka dla człowieka rączkę w kontekście ochrony prywatności musieli raz in Never, a od dawno nie da się wydrukować tak oczywiście to też zagra też zależy pojawiają się wątpliwości co do tego czy można tam na stałe usunąć czy też nie można stale nas z drugiej strony mówimy o koncepcję szkoły 3 czy takie zdecentralizowane ego, a internetu, w którym to my jesteśmy posiadaczami naszych danych i tak z punktu widzenia tych ryzyk np. dla przeciętnego obywatela no to jest to by było mega korzystne tak, bo wtedy odeszli byśmy od tego modelu w, którym wielkie 34 wielkie Platformy np. internetowa są posiadaczami ogromnych ilości danych na nasz temat mogą w zasadzie w sposób nieograniczony nimi jakiś sposób dysponować profilować nas wykorzystywać to niekoniecznie pozytywnych celów okiem analityka jest tylko jednym z przykładów tak naprawdę, kiedy wykorzystana np. różne dane biometryczne czytam gazet i behawioralnej plus do tego w ogóle kwestie takiego profilowania tych przykładów moglibyśmy mnożyć zdecydowanie tak to jest ciekawe czy taki system jak myśl powszechnie znany, ale możecie przypomnimy Cambridge Analytica zasłynęła tym, że w ramach imperium Facebooka w ramach ekosystemu Facebooka udało jej zaciągnąć całkiem dużo danych o ludziach, którzy na to się w zasadzie nie zgodzili, ale powiedzmy, że tam luka wtedy w polityce prywatności tzw. policji prywatności Facebooka i można było w miarę legalnie zrobić potem dopiero jest to okienko zamknął ją dane wzięli po to, żeby odwzorować cechy wzorce zachowań ludzi w oparciu o ich zachowanie i do tych wzorców to pasować komunikaty marketingowe akurat komitety, które wysłane były w kampanii prezydenckiej Donalda Trumpa, ale myślę, że wielu innych analiz zamknąć w bańce po prostu informacyjnej w jakim stopniu trafić precyzyjnie ich obawy lęki nadzieje akurat tutaj politycznym i to uświadomiło ta afera ten Case rzeczywiście dosyć mocny i mocno zmienia opowiedziane uświadomił wielu decydentom, że to nie są zabawki, że reklama traktowana to nie jest taka banalna rzecz tylko mydło albo rekomendacja po raz piętnasty lodówki, którą kupiliśmy tydzień temu tylko również dużo bardziej niebezpieczne rzeczy, a np. w rozporządzeniu o Janie, którą sobie rozmawiamy dzisiaj one w ogóle nie są obecne to jest moje pytanie do siebie jak w ogóle podejść jak wyłapać te ryzykowne użycia technologii nawet szerszy właśnie sensie niż niż uczące się ja wspomniałam na wstępie naszej rozmowy o przykładzie ze świata rekrutacji, gdzie mieszka łącznie z algorytmem, który w sposób skrzywiony wyłapywał osoby, które dopiero miałby przygotowane i to na pewno może komuś zrobić pewną krzywdę poprzez pominięcie, ale o wiele większą krzywdę mojej ocenie robią np. rekomendacje, które dostajemy przez lata od dzieciństwa jako kobiety jako mężczyźnie dziedzin w mediach społecznościowych, a to nie byłoby uznać za ryzykowne jak byś podszedł do, gdybyś mógł to zrobić my do definicji ryzyka wczoraj akurat kolega podesłał mi taką informację, że wykryto, że jakiś algorytm tak rekomendował treści dziewczęcy czternastoletniej de facto z skłaniające do popełnienia samobójstwa to też pokazuje, że ryzyka są bardzo bardzo zróżnicowane natomiast teraz, odpowiadając na twoje na twoje pytanie ja powiem szczerze nie wiem do końca jak można byłoby to zrobić tak, żeby objąć wszystkie potencjalna potencjalne zagrożenia tak jak dzisiaj mamy różne przepisy np. dotyczące odpowiedzialności karnej też one nie łapią wszystkich, jakby możliwych scenariuszy w tym wypadku natomiast teraz pojawia się taki problem niestety jako prawnik musi się tym z tym też zderzyć z 1 strony oczekiwałbym tego, żeby był jakiś szerszy katalog, w którym są wskazane potencjalne praktyki np. nazwijmy to manipulacyjne, ale teraz od razu ktoś mi kontruje mówi czym jest w takim razie manipulacja manipulacja jest bardzo szerokim pojęciem bardzo ocenny no można oczywiście twierdzić, że w takim wypadku dajemy sądowi prawo decydowania, ale może mieć też taki skutek, że jeżeli zbyt szeroko określimy np. katalog praktyk zakazanych to może doprowadzić w jakim stopniu do ograniczenia tworzenia takich rozwiązań innowacyjnych, które z kolei mogą mieć taki pozytywny wpływ na nasze społeczeństwo, że to zadania sądów sprawami, ale nie są tego wart taka jest jak to połączymy, o czym pewnie będziemy jeszcze mówili kwestiami odpowiedzialności to już w ogóle okaże się, że po prostu sądy będą w tym zakresie niewydolne w związku z tym ja wychodzę założenia, że jednak trzeba miarę to opisać ogólnie, ale postarać się przynajmniej definiować podstawowe pojęcia, a w tym zakresie i roje zrobione dobrze w tym akcie prawnym czynnie nie do końca, bo też jak właśnie byliśmy na etapie opiniowania też katalogu tych praktyk zakazanych art. 5 słabnie sławne no, toteż wskazywaliśmy, że jest wiele pojęć, które są bardzo bardzo niejasne tak to ja może to bowiem chodzi o to, że w tej piramidzie, którą sobie metaforycznie narysowaliśmy, która ma objąć rozmaite systemy szeroko pojętego jaj komisja europejska proponuje takie podejście, gdzie zakazujemy tych no najbardziej ryzykownych tak ryzykownych, że nie da się w zasadzie tego ryzyka zmotywować mówiąc prawniczym żargonem, czyli znaleźć środków zaradczych i to jest czubek piramidy, którym teraz teraz mówimy, a potem niżej niżej niżej mamy coraz mniej obowiązków coraz mniej ograniczeń aż wreszcie nie ma w zasadzie nic i teraz ten kubeczek oni z serem szwajcarskim prawda z więcej dziur niż dziś chyba treści tak zdecydowane zresztą, jakbyśmy prześledzili wszystkie te rację kolejna propozycja troszkę parlamentu europejskiego to pokazuje, że do tej pory nie ma konsensusu, a w tym w tym w tym zakresie dzisiaj mamy 2 praktyki zakazane, które można przede wszystkim kierować do sektora prywatnego i 2 praktyki, która odnosi się do sektora publicznego, które są jeszcze bardziej poszatkowany bym powiedział natomiast szereg różnych wyłączeń ciężko było, że takowym dokona dobra analiza nadał przykład takiego z tym, który twoim zdaniem jednoznacznie byłby zakazany przykład Chin tak de facto, bo to, o co najmniej sejmowe regulacje, ale ta na marginesie, ale ten czy to też coś niezwykle ciekawe, że sama mam dosyć często spotykam się z taką opinią, że wprowadzenie akcji z jakim z jakimś stopniu podyktowane chęcią ograniczenia dostępu np. różnych dostawców tego typu rozwiązań o takim rodowodzie właśnie nazywamy chińskim natomiast wracając do takiego konkretnego przykładu Note połączenie tej zdalnej identyfikacji w ogóle identyfikacji biometrycznej przestrzeni publicznej tak np. rozpoznawanie twarzy przez kamery dokładnie oczywiście z tym zastrzeżeniem, że dla celów na szkodę bezpieczeństwa i pod innymi pewnymi warunkami to będzie możliwe, czyli np. na lotnisku tak i drugi policja CBA ABW będą mogły robić, ale już w banku niekonieczny albo moście takim Warszawa po prostu dla zarządzania ruchem, lecz tak niepewnie wszystko zależało od tego czy byśmy spełnili przesłanki, które są też bardzo niejasne tak w związku z tym jeszcze sąd miałby wchodzić w rachubę, który miałby decydować o tym czy to jest taka potrzeba czy nie jest przykład z policją której, które wypowiedziała się z bardzo ciekawy akurat w naszym społeczeństwie takie dosyć ubędzie homogeniczne to znaczy nie ma nie ma tak dużo np. osób o innym kolorze skóry co jest np. charakterystyczny dla Stanów zjednoczonych, gdzie systemy właśnie identyfikujące takiej przestrzeni różne osoby są bardzo zbilansowany są bardzo skutecznie skrzywione tak one to prowadzi bardzo często też do dyskryminacji może, jeżeli nam pozwoli czas to troszeczkę byśmy do tego nawiązali natomiast druga praktyka, która myślę, że ściśle powiązana z tą identyfikacją biometryczną, choć niekoniecznie musi to jest kwestia tzw. scoringu społecznego, który poznawali przyznawanie albo odbieranie benefitów teraz wyobraźmy sobie, gdy to jeszcze zatrzymajmy się przy tym może my to skojarzyć właśnie z Chinami, bo w pewnym momencie dosyć duża uwaga mediów europejskich została skierowana na taki system SCS system kredytu czy scoringu społecznego, które polega na tym, że w Chinach obywatele zbierają punkty jak mają ich więcej to więcej im wolno w takim sensie, że mają np. pierwszeństwo przy staraniu się o kredyt albo mogą dostać łatwiej bilet na szybki pociąg wyjechał zagranicę jak mają punktów mniej no to się wszystko dla nich zamyka to ile mają tych punktów zależy tego czy są dobrymi obywatelami od przechodzenia na czerwonym świetle i aż po bardziej wyrafinowane zachowania subtelne tak jak zrobił w internecie i rozumie chodzi to, o czym mówisz, czyli identyfikacjach, czyli de facto tak tak rzeczywiście przede wszystkim chodzi o to identyfikację tej, jakiej przestrzeni publicznej tak czy jak Hongkong mieliśmy tam nowy rok albo 22 lata temu dużo informacji na temat tego, że praktycznie każdym roku jak przy każdej lampie są podwieszone kamery ja nie chciałbym osobiście być cały cały czas pod okiem tzw. wielkiego brata chciałbym, żeby jednak to moja prywatność szeroko rozumiana była w poszanowaniu oczywiście jak godzę się też na to, żeby do celów bezpieczeństwa ska tego typu systemy stosowane są stosowane dzisiaj też na lotniskach może nie wiem czy w Polsce akurat, ale Stanach Zjednoczonych jestem zupełnie naturalnym, że pewne systemy wyłapują potencjał osoby, które powinny zostać skierowane takie przeszukania osobistego tak i to wydaje mi się oczywiście może się nam nie podobać szczególnie, jeżeli to my jesteśmy tym dotknięci natomiast perspektywy takiego szerokiego bezpieczeństwo społeczeństwa to nie jest zła natomiast w sytuacji, w której nie dość, że ten wielki brat nami czuwa identyfikuje nas identyfikuje noszą taką sferę chciałbym bardzo prywatną tak, bo to kwestia identyfikacji biometrycznej jest też kwestia bardzo wrażliwą połączyli byśmy to np. możliwością dostawania albo nie do stawania czegoś, a jakich benefitów są różne kreśli całą jakieś wsparcie państwa to byłoby powinno być zakazane takie jest też myślenie o komisji europejskiej, że tonie, a co np. dziś na granicy twoim zdaniem nam się, że jest bardzo dużo tego typu, a tego typu kwestii, które nie są moim zdaniem łapane przez właśnie właśnie projekt rozporządzenia w sprawie sztucznej inteligencji czymś czymś takim jest są przede wszystkim właśnie system rekomendacji innych tu się pojawia pytanie musi być zawsze link pomiędzy tym, że np. jest określona rekomendacja jest jakaś potencjalna szkoda mi się wydaje, że to powinniśmy się tak powiem względnie też sytuacje, gdy nawet potencjalne szkody do faktu by nie było tak rekomendacje produktowe też co zasady jestem oczywiście wielkim zwolennikiem szkolnictwa ma to, że nasz koszyk z zeszłego roku pojawia się czy oraz osób korzysta sugestia aktorów zawsze pojawiam się takie pytanie np. otwieram aplikacja jakieś duże Platformy sprzedażowej, które robią jakieś zakupy pojawia się jakiś produkt mówi sobie o kurcze kupiłbym to tak znaczy myślałem o tym, że chce kupić, ale potem pojawi się taka myśl czy rzeczywiście myślałem o tym, że chce kupić czy też może taki algorytm, który tam z wykorzystywane przez Platformę coś takiego mi podyktował no się tych kwestii dotyczącej kwestia ceny oczywiście prawa, bo resort dostosowana jest stosowane, jeżeli algorytm zauważył, że wojsko wcześniej szybko i bez wahania płacić troszeczkę więcej nie wahały się przy zakupach produktów określenie cenie to jest na pewno większe ryzyko, że zostanie kolejny nieco drożej niż ktoś np. trzymał w koszyku przez tydzień się zastanawiać to jest jakaś tam Skoda ekonomiczna może nie jest taka nie jest taka zła, ale temat, który też poruszać na samym początku, czyli np. takie kierowanie treści wobec jakichś określonych grup czy np. ze względu na płeć czy jakieś inne cechy no jest rzeczywiście czymś na czym się bardzo poważnie zastanowił to znaczy ogólnie mam z tym mocnym duży problem, bo oczywiście w świetle różnych wyroków i też projektowanych aktów prawnych, które też mają niedługo niedługo wejść Facebook i inne tego typu duże duże Platformy społecznościowe zaczęły informować, dlaczego okazujemy sobie takie ani treści masz opcje Abd aut tak może się z tego korzyści z tego wyłączyć, ale może z fortu powinno tak powiem być to Niewiem czy zakazane lepszy mam ograniczone to znaczy ja mogę sobie włączyć np. tego typu opcję tak nadamy na takiej na takiej Platformy jeżeli, jeżeli tego chce natomiast, jeżeli nie byłoby bardzo miło, gdybyśmy my mogli określić parametry takie prosić oczywiście powiedzieć zgadzam się z tym, że oceniać jako kobietę o takich jak zainteresowanie albo nie zgadzam się wolałabym, żeby moja płeć nie była brana pod uwagę np. no wiecie na czym wiesz to jest to jest bardzo dobry przykład ja mam wrażenie, że teraz żyjemy w takim bardzo federacyjnej społeczeństwie, bo takim fragmentarycznie to znaczy mamy jakieś tam banki po prostu jakieś grupy społeczne, które dostają pewne konkretne treści niż tutaj tworzyć teorii spiskowych żaden sposób na ten sam plan mamy na to badania i tradycjonalizm pomówienie nikogo oni to jest stworzenie dobrze teraz mówimy o odtworzenie faktów, które są powszechnie znane wiesz nawet się z moich znajomych jest też takiego mówi słyszałeś o tym mówię nie słyszałem mówi mi cały czas bombarduje np. jakiś tam jakaś Platforma tego typu treści miał o tym już nigdy nie słyszała i oczywiście w tym momencie zastanawiam czy to kwestia mojego przeoczenia czy też może celowe działanie tak ze strony tej Platformy teraz byśmy spojrzeli przez pryzmat jak tutaj nie wiem czy to do końca do końca jest jest uwzględniony pominę zupełnie fakt, że jak mamy przy tym katalog praktyk zakazanych to nic skonstruowany także np. ten katalog cech, które można uwzględnić, żeby stwierdzić, że mamy praktykę zakazaną bardzo ograniczony, a jest chyba z tego co pamiętam w tej chwili wiek i to jeszcze jedno jakaś rzecz to jest moim zdaniem za mało, bo jest wiele grup na łóżko właśnie z ze względu na wiek tu 1 rzecz tak, ale bardzo wiele grup, która tu można bardzo łatwo manipulować tak jasne czy ryzyko manipulacji konkretna rzecz inna sprawa dla mnie ciekawa to zdrowie to jest bardzo ciekawe, że w tym katalogu z systemu, który europejska też oficjalnie uzna za ryzykowne i do nich budowa pewne obowiązki nie będziemy wchodzić szczegóły, bo to jest potężna biurokracja, która będzie też ze sobą towarzyszyła w mojej ocenie niekoniecznie skuteczna właśnie w eliminowaniu ryzyka przed nie będą musieli wcale to sędzia ocenić ryzyka dla praw człowieka tylko będą robić takie tylko oceny zgodności z prawem tutaj jeszcze zrobi tylko jedno strącenie, bo jest jedna z propozycji jedna z tych wielu propozycji w parlamencie europejskim, która np. wskazuje to jest akurat technicznego punktu widzenia trudne do wykonania, że np. jeżeli zidentyfikujemy, że nasz system mówimy o systemie wysokiego ryzyka potencjalnie albo już, że tak powiem naruszył prawa podstawowe bardzo szeroki, że tak powiem katalog to w tym momencie powinniśmy dokonać notyfikacji właściwemu organowi wdrożenie takiego takiego zgłoszenia do desy ciekawe, bo z drugiej strony sobie dziecko sobie wyobrazić, żeby ludzie, którzy w tej chwili pracują nad systemami mieli w ogóle pojęcia czym są prawa podstawowe został jeden z ostatnich spotkań z takimi ludźmi technicznymi zadałem pytanie oczywiście są prawa podstawowe no coś tam świtało mówi coś kiedyś na studiach, ale co do zasady nie jest na mieliby to sami oceniać bez nadzoru nad tym bez jakiś wyrazisty takiej Check listy, którą podsunie im prawodawca i jeszcze sami zgłaszać po kontrolę, jeżeli uznają, że ich system jest niebezpieczny to nie jest wszystko bardzo realne myślę, że cała sfera nowych obowiązków, żeby dobrze karmiła usługi konsultingowe i spowodowała na pewno wzrost tutaj na opłatach za tego typu usługi dla konkretnych ludzi nie wiem czy by pomogła budować co komisja chciała budować zaufanie do owej ja, ale wracając do przykładu ze zdrowiem, więc nawet w liście systemu, które miały być z tymi obowiązkami rozmaitymi obudowane nie ma w ogóle praw i zdrowia tam są urządzenia wykorzystywane w medycynie okej, czyli że mam skaner ciała, które wyszukuje komórki rakowe dużo mówią, że skanery działają lepiej niż ludzkie oko dziwi mnie to jednak nie męczą się wykrywają bardzo drobne zmiany, ale równie dużo mówi się o tym, że bez lekarza to daje z rezultaty, bo wykryje również zmiany np. rakowe, które tak naprawdę nie prowadzą nie dają poważnych rokowań mogą niepotrzebnie alarmować pacjenta, że coś jest taki tak naprawdę obciążać służby zdrowia załóżmy, więc tutaj mamy objęte, ale przecież cała sfera usług komercyjnych takich pośrednich przy covidzie mieliśmy różne aplikacje do szacowania ryzyka, które wpływają realnie nasze życie i tylko tam nie ma tylko tam nie ma i stany Zjednoczone już np. z pojawiłem się akty już konkretne, które dotykają sfer, czyli takiego podejmowania decyzji przez algorytmy czy modele sztucznej inteligencji, które są krytyczne dla człowieka zresztą na poziomie Unii Europejskiej czy może w ogóle Europy dyskutuje się np. nad rewizją karty praw podstawowych, która ma dostosować do karty praw podstawy, które ma już na kilkadziesiąt lat do tej sfery cyfrowej jednym z postulatów, które tam jest skazane to np. to, żeby w ogóle wyłączyć możliwość, żeby algorytm model sztucznej inteligencji podejmował decyzję za krytykę decyzji jest tam dotyczący człowieka czy bardzo istotne bardzo np. jak i teraz no właśnie nowe te dotyczące zdrowia to znaczy, jeżeli byśmy zapragnęli taki system sztucznej inteligencji do weryfikacji np. tego czy mamy, jakie zmiany skórne albo jakieś szersze analizy dotyczące naszego gen genotypu itd. a propos jakiś tam już o to, żeby nas zaklasyfikować jakieś terapie nowe zachodnie to to w tym wypadku jednak ostateczna decyzja miałaby być podejmowana przez człowieka, czyli przez lekarz zresztą, gdybyśmy spojrzeli do art. 14 projektu rozporządzenia tego jak akt to tam też jest bardzo ważna rzecz, której często zapomina, czyli posiadanie odpowiednich narzędzi w zakresie przeciwdziałania ryzyku nadmiernego polegania, że tak to nie więcej nazywać tzw. ów relacja z, czyli my musimy zadbać o to, że człowiek jednak jest jakiś sposób decyzyjny w tym naczelna rada decyzyjna, a nie forma akceptujący rekomendację skład takiego systemu innym przykładem krytycznie decyzję na pewno byłoby to co znamy ze Stanów zjednoczonych już słynne Casey decydowania o tym czy kogoś wypuścić z aresztu czy kogoś zostawić dłużej więzieniu np. recydywy tak się tak recydywistów czy pan dyskusję czy wydłużyć wyrok, ale dobrze dochodzimy teraz bardzo ciekawego wątku współpraca człowiek system oraz tego systemu do pewnego stopnia wyjaśnia też może powiedzmy chwilę o tym po to jest bardzo ciekawe ja słyszę krytykę ze strony środowiska zajmujące się technologią na samo słowo wyjaśniali często jak to, czego chcecie prawnicy chcecie uczynić systemy jaj, które uczą się czy sam sposób nadzorowany i ciekawe wyciągają wnioski o świecie wy jeszcze innymi z tego nie da zrobić możemy rozpakować i rozróżnić to to jest moja teza ciekawe czy zgadzasz czy innym jest rozpakowanie tego brak boksu i dokładne wyjaśnienie co tam robi, a czymś innym możliwym pożądanym złapanie kluczowych decyzji projektowych w takim systemie, które decydują o jego celach o jego wskaźnikach i o jego optymalizacji to drugi to pierwszy to są różne rzeczy i warto byłoby rozdzielać czy zgadza się z takim podejściem no to jest bardzo ciekawe co mówisz ja myślę, że ta druga kwestia dotyczy kwestii w ogóle audytowane ości jako taki to znaczy tego prześledzenie procesu właśnie tworzenia nawet samego rozwiązania, czyli tych etapów poprzedzających wdrożenie samego systemu, ale też obejmująca np. obszar testowania walidacji dajmy NATO takiego modelu natomiast to co powiedział w kontekście w ogóle samej wyjaśnia inności jest bardzo ciekawe z tego względu, że zasadniczą, gdybyśmy spojrzeli na przepisy Unii był z Unii Europejskiej to w dużej mierze już mamy obowiązek wyjaśniania pewnych decyzji oczywiście nie w każdym przypadku ten wspomniany przeze mnie art. 22 RODO czy art. 105 ust. 1 pr.bank. pozwala nam rzeczy nakazuje tak naprawdę takiemu administratorowi danych oczywiście mówimy o danych osobowych udzielenia wyjaśnienia i tu dochodzimy, że tak powiem do klubu samej wyjaśnia ludności to, o czym mówią o sobie techniczne to one wychodzą założenia, że potrzebują bardzo technicznych informacji na temat tego jak została podjęta konkretna jazdy, a nie, dlaczego prawa sposób dojścia do niej im wydaje się Sośnie nierealne czasem odtworzenia, a my mówimy, ale nie chodzi prawda chodzi o to, żeby wyjaśnić, dlaczego ja zadam pytanie, jeżeli byłaby poddana procesowi oceny zdolności kredytowej z użyciem systemu sztucznej inteligencji w banku banku, jeżeli odmówiono by ci takiej przyznania takiego kredytu co byłoby dla ciebie istotne czy byłoby dla ciebie istotne dokładnie, jakie parametry były brane pod uwagę w jaki sposób przebiega tak powiem proces analizy analizy danych czy może coś innego ja znam odpowiedź, ponieważ nawet jak pan tylko angażowaliśmy w tworzenie takiego przepisu, który mamy w Polsce, który dokładnie nakazuje co nakazuje nakazuje wyjaśnienie takiej osobie poddanej ocenie scoringu owej czy kredytowej szerzej co miało wpływ tak nawet ja nie chcę tej pełnej listy, bo my w dialogu z bankami na ten dokładnie temu dostawaliśmy czasami wyklute bardzo długie listy wszystkich rzeczy, które mogą mieć znaczenie i powiem, że to jest bardzo frustrujące ja to odbieram jako wręcz no z Och, za tego wyjaśnienia i trochę pieniędzy, bo po co wiedzieć, że bank stosuje taką technologię po co wiedzieć, że on bierze pod uwagę potencjalnie dziesiątki setki parametrów mnie interesuje co zaważyło decyzji czy ono ocenił, że ja za mało zarabiam mam za dużo ludzi na utrzymaniu ma niestabilną pracę pracuje w branży zagrożone zwolnieniami, o co chodzi po wtedy ja mogę się od tego do tego odnieść powiedzieć, ale poczekajcie poczekajcie może i pracuje w branży ryzykowne, bo to jest budowlana, ale ja jako przedsiębiorca mam specyficzną sytuację, bo jestem od 20 lat nikt mi ruszy załóżmy prawda w Timesie tego typu dialogi celem całej historii, a nie wyklucza człowiekowi dziesiątek parametrów dokładnie tak to znaczy chodzi o to, żeby mógł, że tak powiem naprawić ten stan osiągnąć jakiś ten cel, który konkretnie wyjścia, bo też mówić o sytuacji w tej to może zakwestionować oczywiście możliwe zakwestionowania decyzji też jest przecież wpisana nawet w przepisach, o których mówimy, ale jest też możliwość podjęcia pewnych działań, żeby wrócić za rok Jaśka ten kredyt dostać, ale nie możemy też zapominać o 1 innej jeszcze rzeczy interesariuszy, czyli osób zainteresowanych wyjaśnieniem jak działa górniczy model sztucznej inteligencji jest zdecydowanie więcej nie obejmuje tylko wyłącznie tego ostatniego użytkownika czyli, jeżeli ja np. chce działać w sposób etyczny chce tworzyć etyczne system sztucznej inteligencji to ja muszę wiedzieć, dlaczego on np. postąpił tak jak inny sposób już w tym momencie wchodzimy na inny pazia inny poziom te informacje już tak powiem te, które daliśmy temu nasz potencjalnemu klientowi co nas dla mniej istotne dla nas istotne w tym bądź aspekty techniczne czasami mogą być aspekty biznesowe, bo to jeszcze powiedziałem na samym początku taką jedną z 1 bardzo ważną rzecz, że technicznie mówią mówi, że możemy uzyskać fantastyczne fantastyczny system Super dokładne i teraz, jeżeli będziemy żądali od niego np. wyjaśniał gość to też może wpłynąć np. na jego dokładność skuteczność i tak były są twarde dane, które pokazują, że pewnych sytuacjach rzeczywiście zależność pomiędzy dokładnością systemu, a wyjaśnia nasza jest taka, że im więcej wyjaśnia inności nazwijmy to tak spłacając tym mniejsza nisza dokładać i teraz powinniśmy zadać sobie pytanie, w jakich sytuacjach moglibyśmy dopuścić np. stosowanie systemów typu Black Box, czyli np. jeżelibyśmy byli w stanie stworzyć tak rewelacyjny system sztucznej inteligencji czy on abstrahując od kwestii dyskryminacją był kompletnie nie dyskryminacyjny 99 com 9% potrafił stwierdzić, że ktoś ma raka i zastosować odpowiednią terapie to pytanie czy w takim w takiej sytuacji czy możemy zejść z tej wyjaśnia Sobczak czy możemy realnie wyższe to jest bardzo dobry przykład pytanie politycznego, który powinniśmy zadawać się, tworząc takie systemy na potrzeby polityki publicznej ochrony zdrowia do poważnych zastosowań tego dokładnie od nich ja bym oczekiwała taki mechanizm jest budowany w ten w tym cały europejski akt, czyli nie ma tam pomysłu zakaźny tego albo na twardo za dekretu wyjaśniają wszystkiego dla zasady tylko jest ocena wpływu brata, gdy czas jako wyszło, że wpływ zasadniczo bardzo dobre i możemy wybronić moim zdaniem rozwiązań, które mówi byłoby en do przyjęcia teraz ważna rzecz zbliżamy się myślę do mety ale, żeby pochwalić się na komisji wojsko może pod koniec to jest jednak bardzo ciekawa rzecz dokumenty techniczne to, o czym mówić teraz, stawiając się roli profesjonalisty, który tworzy systemy, czyli audytu potencjalnie ty potrzebujesz wiedzieć więcej i to więcej w tym akcie prawnym mamy w postaci takiego prze bogatego załącznika, który wylicza dokumentację techniczną, którą tworzący rozwiązania krajowe np. jakiś potężny Amazon czy potężna i wiem podobno Google, które rozwijają modele, które korzystają inni musiałby dawać np. firmy, którą prowadzi się, w którą każdy z nas mógłby kiedyś siedzę rzecz, która będzie to implementować w kontekście polskim Niewiem, żeby wspierać rozpoznawanie twarzy w banku prawda akurat na granicy, więc komercyjne użycie i jako dostawca technologii przepraszam wdrażające ją dostawałby od nich całkiem sporo informacji dostawała też ta Unia europejska nadzorowania czytam wszystko okej dostawał też taki być może organach Polski urząd ochrony danych osobowych i całkiem fani dokumentacja jest bardzo dobrze zaprojektowana tylko nie boli, że to jest Super wąski, czyli ta cała historia, którą opisuje pozytywy dotyczyłaby bardzo wielu systemów co zresztą prawda one nie były dokumentowane nie byłyby oceniane przez nikogo czy czyjaś MR, gdzie indziej jest furtka ja myślę myślę, że stoi całkowitą rację na 1 rzecz bym zwrócił uwagę, której chyba kwotach pominęliśmy myślę, że warto podkreślić pamiętajmy, że sektor publiczny też w którymś momencie zacznie wchodzić stosowanie różnych rozwiązań opartych o szeroko rozumianą jak i teraz moje oczekiwania jako obywatela względem takiego takich podmiotów sektora publicznego jest takie bądź względem nie przejrzyście pokażcie jak działają tego typu systemy co oznacza, że chciałbym też mieć wgląd w to jak wygląda dodaje prezes oczywiście musimy się tutaj zastanowić nad tym jak to zrobić, żeby z drugiej strony, udostępniając zbyt dużą ilość informacji, a nie doprowadzić do tego, że niektóre podmioty obecne trzecie mogły obchodzić powiedzmy czegoś dokonać ze stanowiska to jest jakby to jest oczywiście bardzo trudny problem natomiast oczywiście się z tobą zgadzam dokumentacja techniczna ma się odnosić do systemu wysokiego ryzyka de facto pozostały systemy nie, licząc tych, które mają skład wchodzą w interakcję z człowiekiem typu jakieś Voice boty chatboty itd. będą miały jakieś niewielkie obowiązki w zakresie przejrzystości tak to znaczy będziemy musieli przykładowo poinformować to też nie w każdej sytuacji, że rozmach, że ktoś, że znasz nie człowiekiem tylko jakim systemem sztucznej inteligencji jest, więc nic więcej i teraz pozostaje cała gama tego typu rozwiązań, które potencjalnie będą mogły generować może nie wysokie ryzyko, ale na normalne, ale na to wyrażą na to, że jakaś aplikacja do montowania mojego zdrowia odpowie mi krzywdzącą dla mnie czy niebezpieczne wręcz rekomendacji zwrócił uwagę też na to, że jeszcze pojawia się nowa koncepcja mianowicie taka, żeby wprowadzić tzw. systemy sztucznej inteligencji ogólnego zastosowania nie więcej się tak tak to nazywacie oświatą dzielni albo dali tak możemy przetwarzać nasz język naturalny świetne obrazy to też, że tak powiem będzie w jaki sposób uregulowana mniejsze obowiązki niż w przypadku systemu wysokiego ryzyka, ale jednak jakież to ja bym jednak chciał, żeby jednak był jakiś ujednolicone standard w zakresie tych systemów sztucznej inteligencji w kontekście dokumentacji technicznej być może powstanie, bo już dzisiaj przecież są różne normy wyjdzie to samego środowiska ludzi wierzących mam taką nadzieję, aczkolwiek zawsze podchodzę pod do różnych standardów, które są tworzone przez organizacje branżowe z pewną rezerwą, bo nie zawsze jednak czy uważa, że one są bardzo potrzebne tak samo jak np. tronie zawsze dobry tylko nie zawsze dobre zawsze jednak pamiętajmy, że dosyć często one w jakimś stopniu realizują interes pewnej grupy prawda i to do tego się nie uciec tak po prostu świat skonstruowany, jeżeli tworzymy coś na nasze potrzeby to zawsze będziemy starali się troszeczkę zadbać o to potrzeba dokładnie, więc to jest oczywiście bardzo duży problem natomiast wydaje mi się, że akurat w kontekście systemu sztucznej inteligencji praktycznie niezależnie od tego jaki poziom ryzyka one generują przydałby się jakiś poziom przejrzystości być może poziomy tej przejrzystości na poziomie czwartym muszę dać to i to na drugim to i to jednak na każdym daje coś zgoda jest rekomendacja, którą akurat Panoptykon wchodzi w zasadzie od zawsze mamy nawet całe całe skomplikowane tutaj matrycę jak te poziomy zaprojektować myślę, że dla słuchających nas z szeroko pojętej branży polityki publicznej zachęcam do do takiego dialogu też za firmy polskie zagraniczne międzynarodowe, które to interesuje żywo, które byłyby co czwarty tego typu standaryzację no właśnie tylko europejska tak jakby przegapiła okazję, żeby o to zawalczyć dobrze myślę, że dużo powiedzieć o tym akcie prawnym ja tylko na koniec przypomnę to jeszcze nie jest obowiązujące prawo jeszcze długo nie będzie toczy się debata o nim w Polskim rządzie parlament europejski dlatego też o tym rozmawiamy bo to jest ten moment, kiedy rzeczy decydują i byłoby bardzo dobrze, gdyby zostały sensownie rozstrzygnięte potem za rok 2 ludzi tworzących rozwiązania w Polsce i dla Polski z zagranicy będą musieli po prostu jakoś wdrożyć i wtedy mogą być prawdziwe kłopoty, a więc życzymy sobie myślę oboje stosownej regulacji do samego tematu na pewno nieraz wrócimy, a dziś serdecznie dziękuję za rozmowę z moim gościem był Michał Nowakowski dziękuję do usłyszenia podcast tokfm PL fundacji Panoptykon Zwiń «

PODCASTY AUDYCJI: PANOPTYKON 4.0

Więcej podcastów tej audycji

REKLAMA

POPULARNE

REKLAMA

DOSTĘP PREMIUM

Podcastowe produkcje oryginalne, podcasty z audycji TOK FM oraz Radio TOK FM bez reklam z 40% zniżką! Dobrego słuchania w 2023!

KUP TERAZ

SERWIS INFORMACYJNY

REKLAMA
REKLAMA
REKLAMA