tłok przy mikrofonie Jan Twardowski witam państwa w człowieku 2 za to dziś temat dosyć kontrowersyjne, bo zadamy pytanie o to czy to już jest koniec prywatności prywatność przestaje istnieć czy tak naprawdę nowa technologia jest w stanie dowiedzieć się nas wszystkiego od LOT-u nie chcemy ujawnić, a ze mną się wtedy Katarzyna Szymielewicz prezeska fundacji Panoptykon czy nawet dzień dobry i prof. Michał Kosiński absolwent Uniwersytetu SWPS wykładowca Stanforda czułej
Rozwiń »
skórą pisma z niedobre bardzo miło w 2 z New Bond o pana prof. Bogdana w swoich badaniach, ale niedawno pisaliśmy w magazynie Fokusa artykułów słów naród śledztwa w wydaniu grudniowym wtedy trwał szał to z tobą skontaktować, żeby o tym, porozmawiać nie udało mu się, bo pewnie zostanie przebił się przez innych dziennikarzy próbujących zapytać o to swoje badania, które na faktycznie są tak niepokojące, bo wynika z nich można stwarzać człowieka wyczytać na szkodę, jaką ma orientację seksualną, ale i być może nawet więcej, a tylko to jedno c zaczęliśmy od orientacji seksualnej dlatego, iż jest to cecha wyjątkowo niebezpieczna, jeżeli ktoś może odkryć bez naszej wiedzy i zgody w wielu krajach bycie homoseksualistą karane śmiercią jeszcze większej ilości krajów często wiąże się to z nieprzyjemnymi konsekwencjami, jeżeli tracimy prywatność naszych orientacji seksualnej i z tego powodu myślę, że wyniki pokazujące, iż rządy instytucje UE na świecie są już dzisiaj stanie mają to technologie w rynku od wielu lat właściwie są w stanie odkryć tą intymną cechy bez naszej zgody wierzyciela tylko na podstawie 1 zdjęcia naszej twarzy nos są to wiadomość bardzo niepokojące dla pokazaliście feralny lot uda się zrobić tak można zaliczyć algorytmy sztucznej inteligencji to popatrzmy na zdjęcie powie hetero nie hetero, a z dokładnością o ponad 90 % w przypadku mężczyzny i tu mówimy o algorytmie, który można zrobić Unia na laptopie, a przecież, jeżeli zatrudnimy tutaj prawdziwych inżynierów z wielkimi komputerami z wielkim bazarze oraz bazami danych ta dokładność tego algorytmu zapewne byłaby jeszcze wyższa no właśnie po pani prezes nie jest niepokojące, że być może już to ktoś robi, bo są nawet o tym nie wiemy oczywiście, że jest z nią zgadzamy się o boje i nie mam wątpliwości czy należy takie rzeczy robić oto, aby pokazać ich ryzyka z nimi związane to znaczy czy jedyną drogą do pokazania ryzyk związanych ze utratą danych od tygodnia naszymi danymi mi jest robić eksperymentów, które dokładnie to robi, czyli oddech odbiera nam tę kontrolę na eksperymenty, które trwać miał Kosiński oczywiście stołu jako zła, ale prawda tutaj osoby, które nie brał udział zgadzają się nad świadomość, ale algorytm, który powstaje w wyniku takiego eksperymentu jak rozumiem możemy potem wykorzystać w otwartym internecie w kontekście takich, których ludzie dość, że nie zgadzali zaczynamy to ryzyko utraty kontroli nad danymi po prostu realizować nasze religie naszych oczach dla mnie rzeczywiście jest to czerwona lampka etyczna, ale też duża pomoc dydaktyczna muszę przyznać, że dzięki badaniom Cambridge Stanforda, który daje dziś nie będziemy przytaczać nasza praca Panoptykon nie stała się łatwiejsza wiele ludzi, którzy nie rozumieli do tej pory, dlaczego te dane to jest taka potęga taka wartość tego należy ochronić nagle zrozumiał dzięki waszym badania zrozumieli, że tutaj stawką są poważne rzeczy nie tylko to jakiś samochód kupię innego jak sam zareaguje jak i jogurtami z na śniadanie, ale przede wszystkim właśnie to co zrobi z tym mój rząd, jaki wybór polityczny, jakiego wyboru politycznego on dokonał pod wpływem marketingu, którego do szatni rozumiem nie dostrzegam czy wręcz właśnie przykłady ze oliwy seksualną, gdzie rozmawiamy o ryzykach i społecznych i jej i relacji z państwem myślę, że problemem też takich badań jest nawet innolot w mrozem wzdłuż margines błędu rozumiemy, że jest wiele zastrzeżeń w tych badaniach jednak moment, w którym ktoś uwierzy więźniom mętność ktoś uwierzy i obraz takiego modelu to już jest początek końca naszej prywatności zmierza do tego, nawet jeżeli model pomylisz się w 10 15 20 % miejsca o liczbę naszym największym ryzykiem jest to, że ktoś uwierzy w to 100 % i będzie go tak stosować Engels wierzyli politycy po kraju powiedzą tak my już wiemy jak odróżnić nieważność głupiego mądrego chorego zdrowego kryminalistę od nich finalisty hetero Homo i za to tak działać to my mamy problem nic nawet jeśli będą modele nie były do końca wiarygodne rozwiąże to możemy się spierać na ile są to głównym ryzykiem jest ich wykorzystanie ich wiarygodność będzie zupełnie nowa będzie naszym najmniejszym problemem, bo one będą stosowane, jakoby były prawdą tak Kubot jest taki problem z 2 inne akcyjna czy oceniamy ludzi po twarzach obsługa poda patrzymy na kogoś godnego podświadomie zupełnie oceniamy atrakcyjny nieatrakcyjny biedny bogaty, bo to w zasadzie to widać zdrowe niezdrowe i w elicie subiektywnie tam na własne ryzyko, że senatorowie w relacji z przyjacielem relacji z klientem w relacji z pracodawcą, gdyż nasza relacja i teraz jeździ z tym prawa, jeżeli to wchodzi w naukę postawy naukowej i system, który może być stosowany przez urzędy instytucje państwo zupełnie inna historia Katarzyna tylko trzeba podkreślić, że jeżeli robi w życiu prywatnym to przede wszystkim też nie jest kraj, bo jeżeli oceniać ludzi na ulicy czy współpracowników na podstawie ich twarzy i popełniasz tej ocenie błąd to jest też wielkie no oni też płacą konsekwencje, że jest szefem, który zatrudnia pracowników i oceniać na podstawie koloru skóry koloru włosów przy twarzy to oni płacą konsekwencje problem jest większe, jeżeli takie działania n p. sędzia wdraża albo urzędnik publiczny i wiemy, że ludzie po prostu wszyscy z nas są rasistami seksi Stanami i jesteśmy uprzedzeni wiele innych sposobów, jeżeli ktoś uważa, że on jest ponad 100 i on nie jest rasistą i seksie z tą Toten człowiek jest bardzo niebezpieczny, bo też jest tylko Sopot z tego nie zdaje sprawy i komputerowe algorytmy poza wielkimi zagrożeniami, jeżeli chodzi o prywatność dają nam 1 wielką nadzieję mianowicie są one tym, którzy mniej subiektywne i jeżeli będziemy nad nim pracowali więcej możemy stworzyć algorytmy, które są po prostu bliskie perfekcji bliskie byciu obiektywnymi możemy wtedy wyłączyć z naszych procesów podejmowania decyzji w kategorii n p. skazywania ludzi czy wybierania ludzi do pracy czy doradzania ludziom w kwestii, jakie ścieżki kariery mogę podjąć, jeżeli byśmy byli w stanie wyłączyć z tych naszych decyzji o rasizm seksizm i inną uprzedzenia n p. ocenianie ludzi po twarzy oni są monterzy niemądrze i dać te moce decyzyjne algorytmom, które mogły być dużo bardziej sprawiedliwe niż ludzie to jesteśmy być może w stanie usprawnić jak nasze społeczeństwo działamy przecież badanie, które prowadzisz, pokazując dokładnie odwrotne ortografię jak groch Olę dobrze rozumiem ich w ich wyniki to w oparciu o dane naukowe dowiadujemy się, że są korelacji pomiędzy jeszcze nie wiemy teraz są tegoroczni medaliści tak, ale ojciec seksualną uciął wyglądem, a innymi cechami, więc tak naprawdę wchodzimy jesteśmy zachęcani niejako poprzez związki waszych badań do tego, aby otwiera centymetr, aby nie odchodzić od uprzedzeń stereotypów, ale je weryfikować na nowo być może je u nas uprawiać i czynić je ważnymi wydaje mi się, że do tej pory sytuacja się z Niemiec 2 0 lat również w Polsce na pewno dłużej w Ameryce, gdzie ludzie zdali sobie sprawę z tego, że uprzedzenia prowadzona z w niebezpieczne miejsca politycznie społecznie kulturowo i byliśmy z nimi aktywnie walczyć oczywiście jako ludzie nie doskonali zgadza się z tą tezą, że każdy z nas uprzedzenie w środku ma, ale już wiemy, że one nas nie prowadzą do dołu słusznych wniosków i staramy się sami z nimi aktywnie walczyć z tą co więcej prawo starać się w tym pomagać Żejmo relacji pracodawca-pracownik czy relacji podsądny sędzia, gdy wkracza prawo, które mówi nie dyskryminuje prawda, jeżeli ja podlega dyskryminacji mamy narzędzie prawne, żeby ją zakwestionować moment, w którym uznamy, że te stereotypy tak, gdy miały sens, bo rzeczywiście ten krzywo nos sugeruje, że ja jestem mam niższy poziom inteligencji powinnam wybrać nie dostać, a ten kształt oczu, że jestem skłonna do przemocy należy mnie wpuścić do klubu i zaczynamy tak działać ekosystem wracamy do moim zdaniem bardzo smutnej wersji społeczeństwo bardzo tragiczny w bez pytania tak naprawdę to my wiemy jak działa taki algorytm prawda o tym czy jak go nakarmili Szmyd nakręciliśmy go danymi, które powodują, że on będzie obiektywny czy to będzie na wchodzą w życie nowa wieś obchodzenia tych, którzy go tworzyli go o tak mówić TFI zatrzyma tego, że ja tu nie chce być pozycji broniącego tych algorytmów, bo cały cała logika moich badań cała idea moich badań jest taka, żeby pokazać jak groźne są targi o algorytmy absolutnie nie uważam, że ktokolwiek powinien być wskazany, ale bowiem na więzienie albo wybrany jako pracownik albo student, dlatego że jego twarz ma takie albo inne cele i całe moje badania są skupione na tym, że pokaże przede wszystkim ludzie mają takie tendencje, że nawet, jeżeli prawo, mówi że nie powinniśmy dyskryminować ludzi na podstawie płci wzrostu w wieku 3 innych ich cech to niestety jesteśmy tylko ludźmi i takie takie uprzedzenia podświadomie będziemy niestety mieli w podejmowaniu decyzji moje badania pokazują jednak też, że algorytmy potrafią na podstawie zdjęć twarzy przekształci zdjęcie twarzy w dokładną off czy w miarę dokładną produkcje cech intymnych cech, które głęboko wierzę ludzie powinni mieć pod kontrolą powinienem móc kontrolować czy podzielą się zwami moimi poglądami politycznymi moimi poglądami religijnymi moją orientację seksualną ta kontrola w mini w dzisiejszym społeczeństwie bezpieczeństwo i teraz niestety okazuje się że, ponieważ algorytmy są dużo dokładniejszy od ludzi w odkrywaniu termin ich tych intymnych cech, nawet jeżeli ludzie chcieliby je ukryć to niestety może się okazać, że w przyszłości tej prywatności będziemy mieli mniej to co zrobić doskonałe pytanie, dlatego że nasze systemy polityczne nasze społeczeństwo w dużej mierze opiera się na tej prywatności n p. moje bezpieczeństwo czy bezpieczeństwo naszej demokracji nawet opiera się na tym, że ludzie nie wiedzą nawzajem, jakie mają poglądy polityczne mamy prawo głosowania tajnego, gdzie nikt nie może się dowiedzieć o tym na kogo ja oddałem swój głos jest to można być podstawą naszego ustroju demokratycznego teraz niestety w przyszłości może okazać się czym się nam to podoba czy nie, że to prawo do prywatności, które dzisiaj jest 1 z fundamentów demokracji wolnego Zachodniego bez społeczeństwa czy to prawo do prywatności będzie nam odebrane czy tego nam się podoba czy nie i wydaje mi, że im szybciej spojrzymy tej prawdzie w oczy im szybciej zaczniemy zastanawiać nad tym jak zorganizować społeczeństwo jak zorganizować prawo, żeby przybyć przygotowanym na to polscy re k agresji era w tym bezpieczniej dla nas jako ludzi, a także bezpiecznie dla społeczeństwa do demokracji tak to jest myślę nawet punkt wyjścia do drugiej części audycji, żeby rozmawiać o tym co my możemy zrobić w tej sytuacji co powinniśmy zrobić, bo wolno stojące w niczym pani prezes mimo wielkich twoich wysiłków i twoja organizacji to jednak widzimy 2 inwigilacja te próby wejścia w prywatność ruchomości nie unikano, bo jest nawet dyr Michał tego nie stawił się na uczelni to jakaś firma działa tam w Chinach Stanach Zjednoczonych ma wystarczająco dużo pieniędzy zrobić coś takiego komuś pod sedes woda pytanie brzmi co zrobić, żeby ktoś nie mógł takiego narzędzia uwodzi wtedy, kiedy on faktycznie będzie wykorzystywana do dyskryminacji jak tylko te wtrąca, że to nie jest tak, że mimo tego nie zrobi, bo miał tu nic jako pierwszy nie zrobił film my i rządy od wielu lat stosują takie technologie do rozpoznawania ludzi są kamery na lotniskach, które patrzą się one głęboko w oczy i analizują waszą twarz rozpoznają wasze emocje i jako urzędnik na granicy, mówi że zostałeś losowo wylosowany do tego, żeby z tą mogłem porozmawiać na granicy nic nie dzieje się z losowo rządy Chin 3 rządy Rosji urząd federacji rosyjskiej w tym roku ogłosiły, że wyrażają właśnie takie systemy i jestem przecież nie zostały wdrożone z dnia na dzień od wielu lat systemy te były testowane moje badania ja w swoich badaniach nie stworzyłem żadnego nowego algorytmu dla udziałem algorytmy, które były wykorzystywane od wielu lat od 4 5 lat i pokazałem, że te algorytmy bez żadnych dodatkowych modyfikacji są w stanie odróżnić pomiędzy ludźmi heteroseksualnymi homoseksualnymi w tym momencie pracuje nad tymże pokazać, że algorytmy te są w stanie także odróżnić między osobami liberalnymi konserwatywnymi nie jest w stanie odkryć czy jesteś osobą religijną czy nie i to nie jest tak łatwo rzeki są algorytmy Adecco pokazuje, że narzędzia, które już są w tym momencie w życiu na swoim lotnisku i na swojej idei i z i na swojej stacji policyjnej akcji mówi na komisariacie gwar, tyle że sędzia już dzisiaj niestety używane po w po no mają dla nas wielkie zagrożenie okręg to do tego tematu ukończył płatności wracamy do 1 1 edycji zeszła na antenie ponownie o godzinie 1 5 4 0 tłok przy mikrofonie ponownie Jan Twardowski rozmawiamy dzisiaj o domniemanym być może faktycznie nawet dokonanym w końcu prywatności ze mną wtedy Katarzyna Szymielewicz z prezeska fundacji Panoptykon Witan pomoc tam ponownie w dzień dobry i prof. Michał Kosiński absolwent Uniwersytetu SWPS wykładowcą Stanford urodziła dziecko w biznes mitem zmagaliśmy w pierwszej części, o którym enkodery sztuczna inteligencja, kto umiałby czytać nas Litwa walczy o to, żebyśmy nie chcieli, żeby wyczytałem zastanawiałem się to, o czym pisaliśmy w oku się czy jest jakaś metoda, aby się w tym bronić, bo są takie metody na wkład makijaż makijaż specjalny park albo za 2 lata wcześniej takie okulary maskujące te powodują, że kamera automatycznie rozpoznaje twarze wtedy bym prosto mówiąc kolokwialnie głupiej nie rozpoznaje twarz Jakub Mazur z ramy cech człowieka zaburzające geometrii twarzy, ale rozumiem, że nikt chyba nikt z nas nie był w stanie chodzić w takim makijażu oraz cały dzień, a zdjęcia, które dziś mamy w internecie od realiów kiedyś tam życzyliśmy po prostu istnieli dodane są nawierzchnie da się tego zaufania tak dokładnie tak jest za późno można powiedzieć na to, żeby teraz te dane zmieniać co więcej w momencie, kiedy zaczynasz przekraczać granicy, nosząc śmieszne okulary dziwne makijaż żydowskim wzbudza zaś, że staje się coraz dalej się bardzo widoczny był też podejrzenie po drugie, Świerzno nie ma musisz burkę zdjąć jak przekraczać granice nie ma takiej możliwości, żeby po ominąć, więc wydają się, że musimy pogodzić się PiS z faktem, że prywatność jest nam odebrana jak teraz nie jestem z tego faktu absolutnie zadowolony dlatego ja tak dużo o tym, mówię staram się w swoich badaniach studiować i jakie są dla tej prywatności największe zagrożenia, ale im więcej o tym, wiem więcej się o tym, aucie, tym bardziej jest dla mnie jasne, że patrząc w przyszłość algorytmy będą tylko coraz lepsze, a my będziemy zostawiali go coraz więcej danych za sobą w środowisku cyfrowym idąc wprzód tej prywatności po prostu nam nic już z niej zostanie prywatności rozumianej jako możliwość ukrycia rzeczy przed władzą czy przed defiladą, która ma narzędzie analizy danych myślę tak, ale pamiętajmy, że już dość dawna Obywatelskiej mówił jako o możliwość ukrywania się za firanką i chowania nie wiedzą o sobie, ale bardziej jako możliwość kontrolowania tego co z informacją, że dzieje, więc myślę, że jeżeli skupimy się na wątku nie ukrywania nie chowania się udzielania tego systemu, w którym funkcjonujemy naturalnie, ale kontrolowania celów jakich taka formacja może być użyta i kto może ją ułożyć po co noc tłumy mam nadzieję mamy cały czas bardzo duże pole do działania obywatelski wydział polityczny, ale też takich działań, jakie prowadzą naukowcy Wave bardzo ciekawa tego jak komisja etyki zapatrują się na prowadzenie badań, które uwiarygodniają takie modele biznesowe czy czy rządowe, które rozumie, ale sam krytykuje, że właśnie z uwagi na etykę, a jednocześnie nogę w dobrej wierze udowadnia, że to jest możliwe jak rozumiem ma nadzieję, że my zareagujemy także ludzie powiedzą mgnienie nie nie chcemy iść tą drogą jest bardzo gruby taniej w jaki sposób my jako społeczność z gotycką gospodarz z naukowców polityków mediów możemy coś z tym zrobić jak możemy ten trend IS nie tyle powstrzymać na poziomie analizy danych czy rozwój technologii, która jest jakoś po po poza nami zawsze będzie ktoś kto, kto pod gonić do przodu ile na poziomie reguł gry lektury moim zdaniem mamy wpływ problem jest taki, że reguły gry możemy ustalać między sobą możemy może Facebooka Google, a i Microsoft przekonać do tych reguł gry, ale czy przekonać do reguł gry rząd federacji rosyjskiej albo oczy przekonać do tych reguł gry instytucje, ukazując obywatelom oraz możemy zmienić może wpłynąć na zmianę tego rządu wraz z żalem, że tak dlatego rok niedawno w Moskwie oficjalnie ogłoszono w kamery nadzoru osób w całym mieście, ale odbił szukają wpływało to żaden z automatycznie szukają przestępców tak na podstawie bazy danych policyjnych dołów dostało Buffona wszyscy jakoś tam to po prostu przyjęli na tak szukają przestępców Okaj po prostu tak jest i byłem z tego powodu rozruchów w demonstracji to nie jest takie ruchy głowy co słychać i myślę, że to bardzo ważne stwierdzenie, bo to nie tylko rządy, ale także indywiduum aktualnie ludzie mogą teraz takie technologie stosować wystarczy laptop dostęp do internetu małe start-upy, które nie mają nic do stracenia są także w stanie powiedzmy ignorować prawo czy ignorować się normy, które społeczeństwa przyjmują jej to są prawdziwe zagrożenie ja nie boi się graczy Facebooka oczywiście należy patrzeć w dużym firmom na ręce są to firmy, które działają w środowisku nowym budują produkty, które nigdy wcześniej były zbudowane i na pewno będą popełniał błędy ale o czym jestem przekonany czysto, że na koniec dnia te firmy nie chcą nam zaszkodzić jesteśmy ich konsumentami czy czy produktami jest także z wychowaniem córek realnej władzy wykreować, ale może nie zabijać lisy, ale mało 1 nieodpowiedzialny start -up 3 1 nieodpowiedzialna osoba siedząca w akademiku, skąd te rem jest w stanie narobić bardzo dużo problemów i możemy spodziewać cofać z dostępności technologii dla takich osób innych firm bardzo trudno jest wykryć komu tak wielu technologii powinniśmy odebrać pytanie jest też takie czy byłoby to rzeczywiście akceptowane społecznie, jeżeli byśmy teraz nagle ludziom na jakiej podstawie też może na podstawie ich twarz odbierali to prawo dostępu do internetu myślę, że po prostu musimy się zgody powiem tak wydają się, że rozmowa o prywatną o ochronie prywatności w mocy prawa i przy pomocy technologii jest bardzo ważna, ale powoduje ta rozmowa iluzje w nas, że jeżeli tylko zagłosujemy na dobrych polityków i wybierzemy dobrą technologię to jakoś magicznie to prywatna i będziemy mogli utrzymać i przez to nie jesteśmy zmuszeni do tego, aby usiąść porozmawiać jak rozwiązać ten problem, który brak płatności powoduje, bo spuśćmy na to w ten sposób sam brak prywatności nie jest problemem, jeżeli n p . mamy pełną tolerancję w społeczeństwie, jeżeli nikomu to nie przeszkadza, że jesteś ateistą albo gejem albo katolikiem i wszyscy ci i tak będą tolerowali to niema wtedy problemu z naturą, a jego prywatność eliminacji, ale wracając do mojej tezy, że prywatność polega na kontroli ani zachowaniu się dla mnie problemem jest to, że ktoś może wykorzystać w celu, który może uważać za mąż za bardzo dobry nie musi być sekretem ktoś ich jako cel złe to może być cel, który dla firmy sprzedające samochód i 9 ustęp sprzedać samochód dla wojsk, które chce być prezydentem on chce nim być, więc zrobi wszystko, żeby nim zostać tutaj tendencja dla niego nie musi być definiowane negatywnie UE, ale dane na mój temat informacji na mój temat pozwolą mu go skutecznie zrealizowane i wtedy to jest zupełnie na stawkach w kuchni jest to, że jak obelżywe w wyniku dyskryminacji, bo żyje w społeczeństwie jest przesiąknięte rasizmem czy jakąś inną jak dać się litery późno paranoją na punkcie innych cech człowieka, ale po prostu będę skutecznie manipulowana przez firmę leżący start-up, który chce go sobie wyobrażamy i to jest dla mnie problem cele tej manipulacji mogą być nawet czasami dla mnie samej niegroźna, ale są fakty podlegania jej jest bardzo nieprzyjemny jaźni, bo nikt go Katarzyna zgadzam, że to zupełnie jak też na to nie chce zgodzić tak samo jak nikt się zgodzić na to, że kiedyś umrę i ta sama się nie chce zgodzić, że na to, że za 6 miliardów lat ziemia zostanie wchłonięta przez słońce, ale są to różne fakty, które po prostu być może nie mamy nad nimi kontroli rymami innowacyjności mamy rozmaite pomysły na kraje Azji, by zdanie choćby tak w wyzwanie pewnych ochrona człowieka samo technologie mamy jednak silny trend od dawna wyraźny wzrost wzmożenia etycznego i biznesie i akademicką naukowców, więc może któryś z mechanizmów są w stanie nie tyle zatrzymać rozwój technologii, bo tego etycznie nie proponuje w żadnym razie ich, ale poddać to ramą, które są etycznie akceptowalne bym się też propozycja Kasi zdobył swój napisał trop ktoś, kto kogo znasz algorytm, który będzie pomagał chronić prywatność, w których będzie nadal grać mam takich jak rok to wtedy będzie kontrował ten algorytm co dobre pytanie rodowód czasem o to zapytać czy takie algorytmy się do nas Włosi są w stanie analizować zdjęcie po dziesiątej do lasu ma taką lampę taką moc konferencja syfonu to ma taką, której wiesz jak ona robi z Belfastu czy wiecie, który cechy są brane pod uwagę to taka czarna skrzynka wpada zdjęcie wypada werdykt na 1 z wielkich problemów które, która teraz ludzkość ma przed sobą to jest to, że mamy właśnie te algorytmy, które podejmują decyzje czy przewidują przyszłość z dokładnością większą niż jest osiągalna dla człowieka ani tym wiesz moja pokazuje zagrożenia związane z algorytmami, które coś od gadulstwa i twarzy, ale mamy inne algorytmy, które są w stanie już zaplanowała 3 trasy samochodu albo przewidzieć pogodę wzrastającą dokładnością, ale za to chętnych albo zrobić różne inne podjąć różne inne decyzje i problem jest taki, że my wiemy, że decyzje są dokładne, bo możemy zmierzyć żona są dokładne wiemy, że decyzje są dokładniejsze niż cokolwiek człowiek mógł osiągnąć w tej kwestii, ale problem jest taki, że nie mamy pojęcia jak to decyzje są podejmowane, bo jest to prosty model jest tak skomplikowany, że dla twojego mu człowieka mózgu jest po prostu nie do ogarnięcia i teraz jest taki trend w nauce rejs ze i wmyśleniu o algorytmach, żeby może starać się tworzyć algorytmy, które są interpretowane dla człowieka, który się wytłumaczą jak dokładnie tak niestety problemy z takiej, że Wiesiek jest algorytm, który jest lepszy od takiego algorytmu coś potrafi wytłumaczyć ten, kto nie musi dokonywać i na koniec września oraz efektywnym lepszy wyrobiła nie jest łatwo jest tam Fedu do zrobienia od innych wracając do rozdzielności tego co byśmy mogli sobie wyobrażać chcielibyśmy w państwach, które są demokratyczne, które mają dać jakieś reguły gry to to jest pierwsza, że jak, jakiej żądamy jako prawnicy obrońcy praw człowieka nie można nie może państwo użyto algorytmu, którego nie jest w stanie odwrócić zrozumieć takiej logice oś oparł, podejmując stanowi tę decyzję, wydając sugestie i w wyroku w procesie karnym czy innej decyzji administracyjnej czy innej oceny, która może mieć duży kąsek dla człowieka takie decyzje muszą być zrozumiałe i wytłumaczą, ale jeżeli upieramy się na scenie, którego nie mamy dostępu, do którego ludziom dostępu nie można go po prostu użyć taka reguła myślę bardzo demokratycznych jest do przyjęcia rzeczywiście na rozumiem argument miała i sama czuję jego jego waga co zrobimy, kiedy dziennikarz nie będzie długo zbudował i będzie z nami rozmawia Katarzyna podam przykład wielkość systemu konsultuje wyobraź sobie, że przychodzi do szpitala im mówić lekarz posłuchaj komputer powiedział nam, że niestety musisz podać się tej operacji teraz masz 2 rzeczy rzeczy do wyboru albo zoperują cię lekarz człowiek i twoje szanse przeżycia są 60 % albo zoperują cię algorytm robot z, który możemy wytłumaczyć w 100 % swoje szanse przeżycia są 70 % albo zoperują cię ta czarna skrzynka, a co w ogóle nie wiemy co się w niej dzieje, ale swoje szanse przeżycia będą 80 %, który jest po odejściu wybierasz ja jednak nadal wierzy człowieka jest u nas danego lekarza, bo okazji porozmawiać to myślę, żeby odstawiła jego twarde 6 %, a nie twarde 80 % w góry mówimy o twardych 80 %, gdzie na próbie 100 0 tysięcy ludzi wcześniej przy re operowanych wiemy, że algorytm po prostu jest lepszy niż lekarz myślę, że jeżeli głębiej nad tym pomyślimy to dochodzimy do wniosku często i ja też takie wnioski, by nie dotrze bez, że jeżeli mówimy o taki, że tak bać abstrakcyjnych no to wtedy ta idea interpretowanego algorytmów brzmi wspaniale, ale jeżeli chodzi o moją własną własne zdrowie przeżycie to nagle ja byłbym zupełnie pewnie w stanie położyć moje ideały niestety na półkę powiedzieć, ale jednak wybiorę tą czarną skrzynkę tego lekarza, który z największymi da szansę przeżycia i niestety to samo stosuje się n p. do takiej decyzji jak decyzje w systemie prawnym, jeżeli mamy sędziego człowieka i wiemy, że jak sędzia człowiek podejmuje decyzje to 10 % ludzi wysłanych na strych czek jest czy na dożywotnie więzienie wysłanych jest tam jako niewinni możemy to policzyć są badania, które pokazują, a jeżeli tego sędziego zastąpimy algorytmem to nagle spada nam ta ilość błędów skazywanie ludzi garnie algorytm danymi, które mają uprzedzenia rasowe -li ne, bo o tym, też wiemy dokładnie w składach wizję rozwoju słabość amerykańskiego brytyjskiego, gdzie takie segmenty są prowadzone nie od wczoraj, że to jest gigantyczny problem dla jak akurat w wymiarze wrażliwości dar dana osoba dorosła skażoną wodę przez policję no zgoda kontekstach jest zgoda przekroczenia o wiele większą barierę niż sam, a wiesz to jest zawsze na pewno rasistą sędzia zaś na pewno każdy i dobry sędzia to wie n p. dobry sędzia czy dobry wiele maili od maja 2 i gimnazjalnych może w Polsce nie mamy takiego dużego problemu po prostu na nieszczęście swoje polskie nie mamy po prostu różne różnorodności rasowej kulturowej, a może masz szczęście ja uważam, że nieszczęście może stać, ale w praktyce, ale mamy mamy na to dowody po prostu, że jeżeli jest to doświadczony sędzia czy n p. prosty przykład doświadczony rekruter szukający osoby na nową pozycję przed kierownicą jakąkolwiek inną doświadczony rekruter poprosi cię żebyś, zanim mu asystent przyniesie CV to, żeby usunąć z nich imiona nazwiska zdjęcia płeć datę urodzenia, żeby tylko zostawił te rzeczy do naprawy się liczą i dość jak się pyta doświadczonego rekrutera, dlaczego to robi to mówi następującą rzecz mówi tak posłowie mam 20 lat doświadczenia i czegoś nauczyłem testowo, że nie jest w stanie podświadome go swojego uprzedzenia przeciwko rasie wiekowi płci zupełnie swojego myślenia usunąć, a tej zasady obowiązujące moją tezę, że człowiek próbuje temu przeciwdziałać i ma taki mechanizm pytanie czy maszyna będzie próbowała je będzie po naszej stronie w ociepleniu bądź nie odpowiemy, ale to to jest ciekawa kwestia, bo to się w Uniao de słynne opisy typu dual jest prawda, kiedy widać było muzyka i rozbojach, jaki jest płci mówi, kto to były te wybory były zupełnie inne niż wtedy szefostwa nie było na ślepo, gdyż oceniał tylko grę tej osoby nie widziało się tej osoby z powodu ubytków kości powinny właśnie tak działać, żeby jednak było trochę na ślepo rozmowę ślepego Lech w Toskanii częściowo po prostu jest z samych ich omówił jest znacząca, jeżeli będą tym terenem cennym mniejsze będą jednak tańsze niż w atmosferze wszystko skończy dziwnie, ale to również dziś to już nie dziwi nas to zmaganie się kończy dziękuje za rozmowę ze mną wtedy była Katarzyna Szymielewicz z prezeska fundacji Panoptykon dziękuję im prof. Michał Kosiński absolwent Uniwersytetu SWPS hodowca stamtąd grać w Lipsku w biznes dziękuję bardzo Ujazdowski do usłyszenia od kolejną edycję Jana Twardowskiego w następnym magazynie Radia TOK FM po czternasty 40, a tymczasem my kończymy sobotni magazyn Radia TOK FM, który przygotowała Małgorzata Buczyńska realizował Jacek Kozłowski dziękuję państwu serdecznie Karolinę
Zwiń «
PODCASTY AUDYCJI: CZŁOWIEK 2.0
-
28:09 W studio: dr Bianka Siwińska , Michał Dżoga
-
26:35 W studio: dr Katarzyna Bandyra
-
25:41 W studio: dr Adriana Błachowicz
-
27:56 W studio: Janina Bąk
-
26:05 W studio: dr Agata Kołodziejczyk
REKLAMA
POSŁUCHAJ RÓWNIEŻ
-
-
02.06.2023 07:20 Poranek Radia TOK FM16:33 W studio: prof. Tomasz Siemiątkowski
-
-
02.06.2023 07:40 Poranek Radia TOK FM12:35 W studio: Michał Kobosko
-
02.06.2023 06:40 Pierwsze Śniadanie w TOK-u15:31 W studio: dr Mirosław Oczkoś
-
-
02.06.2023 06:59 Codzienny podcast gospodarczy08:16 TYLKO W INTERNECIE
-
02.06.2023 08:31 Twój Problem - Moja Sprawa
-
-
-
02.06.2023 06:00 Pierwsze Śniadanie w TOK-u11:48 W studio: Bogna Wiltowska
-
02.06.2023 06:20 Pierwsze Śniadanie w TOK-u10:26 W studio: Robert Hojda
-
-
-
02.06.2023 04:59 Głosem eksperta
-
02.06.2023 04:59 Głosem eksperta
-
02.06.2023 04:59 Głosem eksperta
-
-
-
02.06.2023 13:20 Połączenie13:08 W studio: dr Antonina Łuszczykiewicz
-
02.06.2023 13:00 Połączenie11:00 W studio: Mateusza Roszak
-
02.06.2023 11:59 Tu i teraz
-
-
02.06.2023 13:40 Połączenie15:51 W studio: Jakub Pieńkowski
-
-
02.06.2023 14:00 Połączenie07:26 W studio: Katarzyna Tubylewicz
-
-
02.06.2023 14:20 Połączenie11:32 W studio: dr Marta Nowakowska
-
02.06.2023 17:00 Wywiad Polityczny13:57 W studio: Robert Kropiwnicki
-
02.06.2023 14:40 Raport Gospodarczy14:06 W studio: Jakub Bogucki , Jarosław Kałucki
REKLAMA
DOSTĘP PREMIUM
Słuchaj wszystkich audycji Radia TOK FM kiedy chcesz i jak chcesz - na stronie internetowej i w aplikacji mobilnej!!
Dostęp PremiumSERWIS INFORMACYJNY
REKLAMA
REKLAMA
REKLAMA
-
TOK FM
-
Polecamy
-
Popularne
-
GOŚCIE TOK FM
-
Gazeta.pl
-
WYBORCZA.PL