od premiery czatu czy PIT-y minęły zaledwie 4 miesiące, a my już nagrywany o generalnej sztucznej inteligencji trzeci odcinek i być może nie ostatni, bo rzeczywiście jest także sztuczna inteligencja właściwie usługi już inteligencji, które nam w ostatnich miesiącach zaczęły pojawiać z prędkością karabinu maszynowego, że bardzo mocno zmieniają cały krajobraz technologiczny gospodarczy, więc będzie bardzo dużo zagadnień, o których warto porozmawiać, a dzisiaj
Rozwiń »
rozmawiamy tak naprawdę o problemach, które może generować generator na sztuczną inteligencją i o tym jak możemy sobie poradzić jak na nie reagują też do nich przygotowują wielkie firmy technologiczne i czy mamy w ogóle kompas taki etyczny dla sztucznej inteligencji kompas to jak chodziarze raczej ostatnio znika tak jak np. dzień zniknął w Microsofcie największy inwestorze pana jaj, który na kilka dni przed premierą nowego czatu PIT-y czy czwórki zwolnił cały zespół, który uczył programistów jak tworzyć etyczną i nie przyznał jaj zapora świetnie to tylko 1 poziom problemów, które mogą nam się w najbliższym czasie pojawiały czy te problemy związane z obcinanie ludzi odpowiedzialnych za myślenie o etyce wokół ITI drugim problemem czy też drugą drugim poziomem problemów jest to, że sztuczna inteligencja może właściwie tymi kontenerami generować szkodliwej kłamliwe treści, a my nie jesteśmy w stanie z tym dzisiaj zrobić no przynajmniej na razie nie jesteśmy w stanie zrobić w podcaście te, które wydają Joanna Sosnowska redaktor prowadząca projekt Jutronauci gazety wyborczej oraz Sylwia Czubkowska w tym odcinku wspierać będą swoimi przemyśleniami fotograf Adam Tuchliński dr Sebastian Szymański filozof i badaczy inteligencji Uniwersytetu Warszawskiego oraz prof. Przemysław Polański z Akademii Leona Koźmińskiego to dzięki nim postaramy się wam opowiedzieć, dlaczego jak nigdy wcześniej potrzebujemy nadzoru nad usługami technologicznymi jak jednak przejdziemy do szczegółów jak zwykle mamy 2 prośba, jeżeli lubicie słuchać historii to zasób klubu nasz podcast docencie go, a może nawet podzielcie się ze znajomymi linkiem do nagrań takie wsparcie jest dla nas bardzo cenne, bo tylko w ten sposób będziemy mogły przebić przez algorytmy platform streamingowych cały czas wiemy, że jest problem z odszukaniem nastawiona największy jak nie było Platformy, czyli na Spotify, ale naprawdę jesteśmy trzeba pogrzebać trochę trzeba postulować albo trochę jak zwierzę wejść na Spotify z wyszukiwarki po prostu z poziomu Google albo poszukać na innych platformach podcast owych tę historię Sylwia Czubkowska Joanna Sosnowska ulicę i technologiach by ktoś historię zacznijmy może od pewnego eksperymentu myślowego, który w ostatnich dniach wzbudził spore poruszenie dyskusja zaczyna się tak cytuję wyobraź sobie, kiedy siadasz do samolotu połowa inżynierów, którzy zbudowali mówić, że istnieje 10% szans, że samolot rozbije, zabijając siebie wszystkich innych na pokładzie nadal szedł w takie pytanie zadał Yuval Harari w felietonie zatytułowanym w dogmaty jaj i tłem masterpass, które niedawno ukazał się w nie tam się nową razem Harari napisali też Chris Harris i twórca Centre for Human Technology to takie były pracownik Google, który są to jako design Etixx, a oraz Azora Rafik on też jest współtwórcą Center for Human techno loggi w ich specjalnie wymieniam wspominam, bo to są naprawdę bardzo znane nazwisko w świecie technologii tylko są Harry, który bardziej takim już czas takim trochę po filozofa z takim jest bardzo bardziej mainstreamowe, a też tak bardzo po prostu skomercjalizowany, tak więc czasami jego przemyślenia nie są aż tak poważnie brana jeszcze kilka lat temu, ale rzeczywiście w zestawie z Harrisem i z Rosji okiem tworzą tworzą grupę, która ma bardzo silny wpływ na ustawienie takiej naszej debaty wokół wokół tego, jakie są kwestią jest odpowiedzialnością z etyką z problemami generowanymi po prostu przez technologie technologiczne skoki tym razem to, o czym piszą czy raczej na co wspólnie wskazują, o czym alarmują jest ewidentnie związane z tym najnowszym skokiem, czyli sztuczną inteligencją, bo cały esej poświęcony nagłośnieniu faktu, że jesteśmy po prostu w niezwykle ważnym momencie dziejowym w takim momencie, gdy firmy technologiczne budujące dzisiejsze modele sztuczne inteligencji no wyścigi próbują umieścić całą ludzkość we właśnie w tym wspomnianym samolocie i tylko wiesz oni nas pytają czy się niemal rozsadzają dom no tak no w skrócie można cały ten felieton całe to ostrzeżenie podsumować także pchamy się jako ludzkość do maszyny, której upadek czy też awaria jest naprawdę wysoce prawdopodobna i to trio pisze, że przecież dziś firmy farmaceutyczne nie mogą sprzedawać ludziom nowych leków bez uprzedniego poddania tych leków bardzo rygorystycznym kontrolom bezpieczeństwa testom regulacją tak samo powinniśmy też zacząć traktować tych, którzy chcą nam zaimplementować na jedną z największych rewolucji ostatnich lat, czyli kolejne usługi sztucznej agencji oni nie są wcale odosobnieni w tych ostrzeżeniach także uraża grupy taka wiodąca bardzo wpływowa organizacja zajmująca się doradztwem geopolitycznym opublikowała niedawno raport o na temat najważniejszych zagrożeń na 2020 trzecie rok i wyobraź sobie, że umieściła sztuczną inteligencję w tym raporcie na trzecim miejscu za Chinami Rosją no jest wymowne bardzo powód, dla którego tak wysoko jest jaj, bo wg analityków ma zdolność do wywołania erozji społecznej wzmacniania populistów i rządów autorytarnych oraz zakłócenia działalności biznesowej stabilności rynkowej globalnie pustkę brzmi to brzmi to mocno i groźnie brzmi mocno groźnie co więcej te wszystkie ostrzeżenia zbiegają się w czasie z premierami czy bity i form oraz barda, czyli tej słusznej elegancji Gula no i jesteśmy w takim momencie, gdy już naprawdę oczy całego świata nie tylko technologicznego zaczynają coraz bardziej uważnie patrzeć na oferowane nam z prędkością właśnie tego przywoływanego przez siebie karabinu maszynowego rozwiązania jaj zwracano uwagę chociażby wspomniany już dzisiaj prof. Przemysław Polański z Akademii Leona Koźmińskiego prof. Polański jest prawnikiem z doświadczeniem i wykształceniu informatycznym, więc specjalizuje się w zakresie prawa informatycznego i na temat tych tych już dotychczasowy nawet problemów, które myśmy ze sztuczną inteligencją mówią nam w ten sposób wiele przypadków sztuczna inteligencja wywołała określone szkody przykładowo zrównane są przypadki wypadków śmiertelnych samochody autonomiczne, które potraciły osoby, która wbiegła nagle na ulicach i samochód nie zareagował odpowiednio szybko i mamy przypadki, w których sztuczna inteligencja była wykorzystana w ramach czat botów właśnie na raty na jaw była wykorzystana na platformach randkowych, gdzie zrobił mężczyźni nie byli świadomi tego, że zmierzają się nie kobietom, a tylko zwierzają się bottom i pewnie nie doszłoby do żadnej tragedii, gdyby nie to, że hakerzy włamali się do takiego serwisu i publikowali wszystkie informacje i zwierzenia mężczyzn, a cyfrowym kobietom no i doszło do rozwodu wielu osób doszło też do samobójstw, a więc ja i morza panach może wywoływać negatywne skutki są pewne rodzaje sztucznej inteligencji, których nawet sposobu działania nawet twórcy nie rozumie jednak i teraz pan problem polega na tym jak mamy regulować coś, czego nawet twórcy nie rozumie, czego mamy oczekiwać i mówię tutaj o sieciach neuronowych trwają w tej chwili prace nad na tym właśnie, żeby te sieci neuronowe były ich działanie było lepiej wytłumaczalne, ale póki co jesteśmy daleko od od osiągnięcia tego celu, a więc póki co zbieramy doświadczenia zarówno te pozytywne jak te negatywne związane z wykorzystaniem jaj, a ja bym powiedział, że powinniśmy jeszcze więcej zabrać tych doświadczeń zobaczyć na ile ta technologia rzeczywiście jest w stanie jest w stanie wywołać tak poważne problemy społeczne, że będzie to zasługiwało na na daleko idącą regulację chroniącą społeczeństwo szat wykorzystywaniem tego typu technologii o regulacjach jeszcze dzisiaj państwo dość dokładnie opowiemy natomiast muszę powiedzieć, że bardzo dobre przykłady podaje prof. Polański niby takie, które mogły nam gdzieś umknąć, ale faktycznie on dobrze ilustrują cały problem, z którym dziś mierzymy nawet w sytuacji, której no przykładowo samochody autonomiczne wciąż nie weszło nam za bardzo na rynek, chociaż trzeba przyznać, że właśnie problemy z brakiem takiego kontroli nad tym jak reagują na drogach w sytuacjach kryzysowych był jeden z powodów takiego powiedzmy spowolnienia prace nad pojazdami autonomicznymi jak się okazuje życie bez kwestie takie etyczne nie, bo jeden z tych najsłynniejszych wyzwania etyczne nie tego wagonika, który jedzie to ma przyjechać dziecko czy kogo tam przejechać ruch osób dokładnie grupa osób, więc tak bardzo bardzo klasyczny problem tutaj filozoficzne etyczne siadł i okazuje się, że gdzieś tam twórcy sztucznej agencji stanęli przed ścianą, więc spowolniło to stąd rozwój tej technologii no dobra muszę anegdota jak opowiada boję co nas cierpią na tym radnym to ożywia się w lecie opowiadała już historia, ale to państwo bowiem kiedyś byłam na takim wystąpieniu Astro Thalera on był ówczesnym szefem w ogóle ich czy tej jednostki takiej odpowiedzialnej w Google za takie najbardziej odjechanego pomysł m.in. za samo jeżdżące samochody za okulary Google Glass itd. i on opowiadał w jaki sposób szkolili samo jeżdżące samochody na uliczkach San Francisco płacą za wszystko wierzę niektóre z tych uliczek są bardzo wąskie bardzo kręte, więc okazuje się, że jak spadki, tak więc jedną z takich uliczek jechał samo czyszczące w samochodzie zdaje się, że tym bez kierownicy jechał operator i gdy wy no użyli się z jakiegoś wzgórza samochód na środku drogi zobaczył kobietę na wózku inwalidzkim, która miotłą przeganiała kaczkę czy straży samochód i samochód z badania w sensie on po prostu nie zrozumiał co się wydarzyło stanął stanął gapią się na te kobiety tak punkowców tak po prostu nie wiedział co się dzieje, więc to oczywiście bardzo poważne problemy i taka anegdota z kaczką może troszeczkę łagodzić, jakby odwracać uwagę od klubu problemu, a wcale nam się nie o to chodzi, bo tak naprawdę tych przykładów braku nadzoru o jaj jest już dużo jeszcze 1 rzeczy prof. Polański ma rację, bo robi się coraz trudniej, dlatego że mamy do czynienia naprawdę technologiami, które tak jak mówicie stanowi dla nich twórców nie są wcale takie bardzo przejrzystej przewidywalny wiesz coś jest do końca przejrzyste przewidywalne nawet te powiedzmy szybko czasami wręcz na kolonie tworzone projekty ostatnio przez graficzne sztucznej inteligencji czy widziałem zdjęcia głównego Trumpa także lisy albo Putina pękającego w trzecim linię dobre, ale przyznaje nie miała już na taki ułamek sekundy myśli UAV, a to się zadziało w przypadku Putina tak w przypadku Trumpa nie, bo wiedziałam, że timing nie zgadza, ale w przypadku Putina i szyi to wszystko grało, więc przez naprawdę cena sekundę takie oko da no i takie sprawdzanie czy to na pewno ten nowy rok zamknął nas tam całował w rękę dam czy tego typu kas zwykł wykonywać ja spędziłam czas, żeby to naprawdę sprawdzić, bo latało to zdjęcie pod pisarza, bo taka, żeby dla wprowadzenia może dla naszych słuchaczy, którzy nie kojarzą kontekstu no bo spotkanie kilka dni temu Kinga z Władimirem Putinem w Moskwie takie powiedzmy hołd Lenny nie trochę rzeczy to zdjęcie, bo dokładnie takie i on realizował też może tylko nasze trochę tu potrzeby wyobrażenia tego co się zadziało zdjęcie to nie było zdjęcia zaczniemy od tego to nie było zdjęcia zwartą mówił z więzienia nie ma lepszego słowa naprawdę no być może jest przysłowie w ogóle zwraca uwagę na to, że to jest, że nie może tych ujęć grafik produktów tak nazywa zdjęciami Adam Tuchliński Adam Ruciński jest wieloletnim fotografem fotoreporterem między nimi Newsweeka forsa i 8 ręczną tak jak rozbitek Ziach, gdy słyszę, że ktoś używa słowa fotografia albo zdjęcia na wytwory, więc posłuchajmy zdania Adama teraz mamy sztuczną inteligencję, która tworzy coś co wygląda jak prawdziwa fotografia na przychodnię aresztowanie Trumpa, który został generałem wygenerowany i tam nie ma nikogo, kto powie tak to ja zrobiłem ja byłem podczas tego aresztowania i nie należy wierzyć fotografiom należy wierzyć fotografom fotografowie są świadkami, którzy mówią tak byliśmy tam tak było, bo oczywiście można nie wiem ułożyć kukły sfotografować się powiedzieć są ofiary jego wypadku tylko żaden rozsądny fotograf się nie weźmy czegoś takiego na siebie trzeba uważać na fotografie, które krążą bez autora bez żadnej rekomendacji bez bez podpisu na sztucznej agencja jest jakby takim taką możliwością taniego generowania wszystkiego co nam przyjdzie głowę myślę, że już nabiera myślę, że to cały czas trwa myślę, że musi pewnie jakiś tragedii nie wiem ktoś przegra wybory, bo bo, bo wypłyną jakieś zdjęcia które, które nie będą prawdziwe potem okażą się fajkami ktoś straci ogromne pieniądze, bo ktoś wygeneruje zdjęcie zepsutego produktu, który jest w biegu, po czym okaże się, że to jest, gdy ze zresztą znaczy działu sztucznej agencji, bo pytanie takie, kto bierze za to odpowiedzialność ja odpowiedzialne są fotografie moi koledzy fotografowie biorą odpowiedzialność za swoje fotografie, a zresztą agencje to twórca algorytmu niekoniecznie anonimowy twórca na czele anonimowa osoba, która wygenerowała to życie dziś co się medialną publiki opublikowała na jakiś stron chce też nie na dostawę naprawdę bardzo ważne pytanie, kto będzie brał odpowiedzialność nie tylko zatem mniej lub bardziej udaną usługi sztuczne inteligencji, ale także odpowiedzialność za ich produkty za potencjalnie naprawdę ogromne skutki, jakie będą niosły czyli gdzie są inżynierowie zastoju wspomnianego dzisiaj York Timesa, którzy nami alarmują, że tamten samolotom może spaść coś nie tak no pytanie czy to już jesteśmy w tym momencie, kiedy naprawdę trzeba alarmować reż Patty w niektórych aspektach tak jak mówi prof. Polański takie trochę wołanie dopuszczalne, bo dotyczy bardzo teoretyczne bardzo skomplikowanych wezwań taki bardziej z pogranicza science fiction, ale te ostatnie tygodnie z kolejnymi lotami Pippi generator mną ja graficzną głosową wyszło widziałam też nagrania całkowicie wygenerowane, gdzie mamy naprawdę takie deepfakes tworzono, żeby twórcy sami siebie tych ciężko wytłumaczyć człowiek sam siebie generuje raz jeszcze, wykorzystując między mi dali im militarnej właśnie od Rity masz tworzony deepfake autora, który mówi coś czy mogę generować taką siebie lepszą lepszą ulepszoną Jonas wąsko na zawsze moim makijażu zawsze dobrze ułożonymi włosami mówiącą co chce się pan, ale swoim głosem twoim głosem co jest to jest po prostu fascynujące, więc to mega przyspieszyła im bardziej będzie przyspieszało tym większe będą to 4 to właśnie szczycie wyzwania związane z etyką spasowania się nasze normy społeczne z możliwościami oszustw i myślę, że właśnie kwestii grafik zobaczył Adam też są pomylił powiedział w fotografie, więc jak bardzo będzie ciężko odciąć od pewnego też języka, który do tej pory o ochronę także, bo jeszcze wcale nie dzieje, że Adam tutaj nawołuje do tego, żeby nie używać słowa fotografia, ponieważ on fotografem to jakby pewien sposób Kala w ogóle jego profesję natomiast, jeżeli coś wygląda jak fotografia zachowuje się jak fotografia to aż prosi, żeby nazwać fotografią widział taki podpis zresztą już parę w prasie polskiej właśnie FOT w tym grafikami podmiejski ilustracjami ta ilustracja może najlepsze słowo no bo jak się okazuje nawet prasowi fotoedytorzy do nie znaleźli na to lepszego określenia, które było takie też myśleć naprawdę lustracja, ale nie było to nie tylko problem nazwę to jest tak jak zwraca też uwagę tu chiński również problem po prostu oszustw czy też do informacji i to taki problem, którym będzie bardzo trudno wyłapać no też jest takie niebezpieczeństwo, że ktoś, kto będzie chciał zasiać jakiś zamęt to spokojnie to zrobi no wyobraźmy sobie jak jakieś służby, które prowadzą propagandę mogą z tego korzystać mogą wygenerować sobie dowolnie i dowolną masakrę dowolne na ilość ofiar zniszczonych budynków tak dalej, a kłopot jest taki, że my nie mi nie dojedziemy na myśli np. teraz usłyszelibyśmy, że nie wiem w Ługańsku Ukraińcy zbombardowali osiedle mieszkaniowe no i widzimy obrazki z tego prawda zniszczony ofiary na ulicach płonące bloki i doznawane służy służby, które tam jak działają no i teraz nikt z naszych, jakby tureccy dziennikarze tam nie było, bo być nie może, więc nie wiemy czy sprawę, że to jest nieprawda może się okazać po prostu ktoś sobie postanowił zorganizować akcję wygenerować sztucznej inteligencji zdjęcia zgliszcz osie poszedł, bo też duży problem wygenerował sobie teraz tym utoruje no, jakby powodu i nos wpływa tym kłamstwem na rzeczywistość, bo nagle się okazuje, że okej no tak pomogliśmy Ukraińcom daliśmy rakiety, ale zobaczcie co zrobili tak naprawdę nie miał miejsca, ale te skutki tego pokazania tych tych obrazów jest czy są są jak tragiczne, więc pytanie jest takie, kiedy skończy na czy teraz może rozpoznać czy coś jest szóstą kadencję czy nie rzecz przecież został wygenerowany przez sztuczną inteligencję czy nie, ale myślę, że za jakiś czas no nie będziemy w stanie tego rozpoznać, bo komputery będą coraz lepiej sobie dawały radę z generowaniem nie wiem struktury skóry twarzy będą pod potrafiły policzyć ilość palców na ręce, gdy tylko kwestia czasu, kiedy te algorytmy będą bardziej sprawne my wtedy się pojawi problem skoro jest akcja oczywiście jest też reakcja zagrożenia związane z dezinformacją i fajkami czy też wszystkimi innymi manipulacja mi sztucznej inteligencji stają się coraz powszechniejsze, ale równolegle powszechniejsza staje się też świadomość o sposobach walki z takimi nadużyciami mówił nam dr Sebastian Szymański adiunkt na wydziale artes liberales Uniwersytetu Warszawskiego oraz kierownik centrum badania ryzyka systemowego jak będzie także, jakby taki tradycyjny w fakcie King na pewno tutaj jest jedną z takich prostych rozwiązań, które każdy może stosować, ale również efektem może być stosowana na na poziomie instytucjonalnym dając znać, jeżeli chodzi o nie Platformy informacyjnej tak dalej wszy tak miast są również pomysł jak to rozwiązać strony takiej firmy technologicznej czy czy na poziomie prawnym jednym z pomysłów jest taki, żeby istniał także wprowadzić specjalne znaczniki treści, które są wiarygodne projekt, czyli że przesuniemy firmy czy zdjęcia, które będą prawdziwe będą PN miały zaszyty w sobie informację o tym, że znak, że zostały albo zrobione w te 3 zostały nagrane w tekst z wysp, że to nagrania zrobione z, a posunięcia były wykonane z udziałem rzeczywistych osób i będziemy mieli np. Niemcy w lub przerywać internetowej drugie już programie do odtwarzania treści audiowizualnych w tak Taku odpowiedni moduł, który to będzie sprawdzał będzie gotowa informację to jest to jest weryfikowane natomiast na takie szelki siłą rzeczy nie będą miały tak tak takiego co takiego czego, więc informacja o tym, że to jest zweryfikowane już będzie tak też będzie jakimś jakimś sygnałem, że nie jest to nie jest informacja potwierdzona no skoro teraz widzimy i potrafimy wskazać na to, jakie są wyzwania to co z tym robią ci, którzy nam robią to jaj no i inwestują w tym inwestują nie tylko, że niekoniecznie to, żeby problemy rozwiązywać i chyba najlepszym symbolem jest to, o czym już wspominał gość to co zrobił niedawno Microsoft jeden z największych inwestorów pana jaj czy twórcy właśnie czatu z PIT i Microsoft oczywiście zainwestował czy zintegrował swoją wyszukiwarkę bing z tym, że czasem, odkąd zrobiono Tobin przeżywa drugą młodość w wyszukiwarkę, która tę 8 lat nie była traktowana specjalnie poważnie było dużo żartów na pewno pamiętasz począwszy od możliwości biega przez nazwę te wszystkie takie anty reklamy, któremu pień cechy, jeżeli wuja kojarzyło głównie większe tego, że pojawił się co raz jakich serialach amerykańskich na stopach laptopów i trybu ewidentnie po prostu lokowanie produktu, bo przecież wykorzystać w rękę do do mniej więcej tak na trasy teraz zaczął notować zainteresowanie większe każdego z niego korzysta z niego na 100 000 000 osób wciąż bowiem w ogóle jest est nic, ale jakiś tam jednak wynik, tyle że obok tych inwestycji to to te rozwiązania Microsoft postanowił przyoszczędzić też tak jak inwestują inwestują kwestią dość mocno tną i tego samego dnia, gdy opel jak ogłasza premiera o to czy PIT 4 to wyciekła informacja okazało się, że z Microsoftu kilka dni wcześniej został zwolniony cały zespół odpowiedzialny rozwijanie etycznej ani nawet nie ten został rozwiązany zwolniony został rozwiązany, więc nie tylko ludzi tam został zresztą tylko kilku pracowników 30, które było jeszcze w 2020 z takiego większego większej grupy stałych kilku to jeszcze powiedziano, że gości jest kat w schronie pod czas na pomysł tak to jest właściwie nawet powiedziałbym, że więcej niż tylko symbol takiego traktowania po macoszemu prac nad jaj, bo takie cięcie ludzi, którzy są odpowiedzialni za kwestie odpowiedzialności i przewidywania tarapatów, jakie sztuczna inteligencja można spędzić możemy naprawdę bardzo poważne konsekwencje, jakie opowiada nam dr Szymański w konsekwencji będą takie, że jeżeli i w ramach firmy nikt nie będzie się z specjalnych przyjmował analizą tego rodzaju ryzyk tylko będą to też troszeczkę testować Ross takie rozwiązania w praktyce no to oczywiście mogą się pojawić sytuację, w której w, której taki czas będzie się zachowywał w sposób ofensywny tak będzie podawał nieprawdziwe informację tak czy będzie mógł być wykorzystywany to do te generowania szerszej owych tekstów czy tylko tych obrazów, bo tak i ten najnowszej ofercie czy PIT pozwala również na na generowanie oprawców ma ogólnie rzecz biorąc efekt no będzie Demski MOK będzie można wykorzystać szeroko rozumianego zwodzenia oszukiwania manipulacji informacją tworzenia szerszy fałszywych informacji i to bardzo tak bardzo szerokim zakresie co gorsza tak, ponieważ ten te te dotyczące lepszy pod względem językowym tak czy jak czyta się też wygenerowane to sprawia wrażenie na to naturalnego w tej 100 napisanego przez człowieka to w tym jak wiarygodność, którą dzięki temu ten IT technologia uzyskujemy będzie się przekładała oczywiście na zwiększenie tego rodzaju tego rodzaju zagrożeń dobra, ale to może Microsoft jest tak naprawdę takim trochę niechlubnym wyjątkiem na tym rynku wielkich inwestorów szóstą inteligencję ma można było mieć nadzieje, ale nie chętnie i są oczywiście bardzo odmówił, ale po prostu takim szczęśliwe zgłosi się w uważam, że tak, ale my po prostu dobrze znamy firmy tak normalne, żeby mieć tutaj dużo takich oczekiwań, ale wysoko wysokich na 2019 roku Google w ciągu 1 tygodnia założył i rozwiązał radę do spraw sztuczna inteligencja, która miała dbać o to, żeby technologia właśnie sztuczną inteligencję w bólu opracowana była zgodnie z wykładnią zasad etyki już, ale z tą radą to tutaj tak było tak pamięta, że to co chwilę okazało, który z członków to jest jakieś takie androny Acta tak to była Drawa porównywalna do przejmowania Twittera przez Ilona maska tam chyba największe kontrowersje wzbudziła jedna z ekspertek Kay koło James tak ona była prezeską takiego prawicowego think tanku Heritage Foundation, która w czasie miał zajmować etyką w badaniach nad sztuczną inteligencję równolegle publikowała na swoim koncie taki transfer liczne komentarze, a żeby było jasne kwestie związane tutaj jest takimi równościowe kwestie i i te dotyczące wszelkich mniejszości są niezwykle ważne przetworzeniu przy pracach nad sztuczną inteligencją, bo na bardzo może łatwo okazać się być po prostu dyskryminujące i no i te wszystkie komentarze James tak się spodobało Larsson, że no po prostu nie naciskali wystarczająco mocno na zarząd, żeby została ona usunięta na postawy, bo petycja były protesty w końcu liczyć też wykurzyć inni członkowie rady, ale mi się wydaje, że tak najciekawsza była awantura, ale nie poczekaj zresztą, bo nawet rozumiem, dlaczego w ogóle dorabiał sobie być może ideologii, ale nawet rozumiem, dlaczego Google mógł chcieć mieć osobę na pokładzie, która prezentowałaby takie bardziej konserwatywne poglądy Marze wybrali osobę, która trochę przejechała za daleko i AM uwzględniała nie tylko ten taki bardziej konserwatywny światopogląd, ale też wielu wręcz wjeżdżała w trans objęto już faktycznie no trochę za daleko, bo ochrona nie była jedyna w mieście była historia z jej i to nie będzie to kojarzy pana ja i to to jest taki japoński przedsiębiorca i inwestor ją też ekspertem w IT media LAP, a oraz ekspertem właśnie w tej radzie Googlea i 2015 roku okazało się, że brał pieniądze od Epsteina o i to nie tylko brał pieniądze w sensie takim badania, ale jakoś tak blisko z nim związane też od zasadniczego wykopano ze wszystkiego co się na więcej, jeżeli tacy ludzie byli w radzie do spraw etyki to słabo z tą etyką w dużym skrócie, więc trochę może nie ma co żałować tej rady rady może nie tylko, że przy okazji tejże rady zaczęły wpływać też inne sprawy związane z tym w szeroko rozumianym wpływem BigTech na to jak wygląda debata o etyce i sztucznej inteligencji przykład brytyjskie Spotlight i Ns tek w tymże 2019 roku przeprowadziły takie śledztwo, żeby sprawdzić, jaką rolę branża technologiczna odgrywa we wspieraniu brytyjskich badań nad etyką sztucznej inteligencji w co się okazało okazało się, że Google wydawał miliony funtów na finansowanie badań na brytyjskich uniwersytetach to te miliony w ciągu 5 lat co Oxford otrzymał od Google oraz DeepMind, czyli tej brytyjskiej firmy, która zajmuje się sztuczną inteligencją i przy okazji własnością króla otrzymał co najmniej 17 000 000 funtów bardzo ładna kwota niby nic złego nie może tam mając jednak zadania tak pasek klasy wszyscy robią UE, tyle że pieniądze te szły na Oxford internet Instytut, który zajmuje się właśnie badaniami sztucznej inteligencji, a jego nauk naukowcy tacy jak profesor liczono korridy prof. Sandra łączy oraz dr pręt mit stad Stali się nie tylko takimi chłodnymi komentatorami kwestii etyki jaj, ale przede wszystkim doradzają instytucjom, które mają przygotować regulacje m.in. do grupy ekspertów wysokiego szczebla komisji europejskiej do spraw sztuczna inteligencja bardzo długa nazwa no i wspomniany uczono Florydy także zasiadał we wspomnianej radzie Googlea, ale jeszcze 1 cool tak tak rzeczywiście działo w ostatnich latach zaczął doinwestować naukowców, którzy mieli zajmować się zajmują się badaniami nad wpływem sztuczna inteligencja aż nad kwestiami etycznymi także Facebook w tym samym czasie 2019 roku przekazał 7,51 000 000USD na Uniwersytet techniczny w Monachium oczywiście o to, żeby sfinansować uruchomienie tamtejszego centrum badań etyką sztucznej inteligencji zaś Amazon z taką amerykańską fundacją nasiono science Foundation od 4 lat rozdaje granty to co najmniej 10 minut dolarów już poszło na badania nad uczciwością już inteligencji i z 1 strony Super Super, bo rzeczywiście skoro te firmy same inwestują same tworzą narzędzia do związany ze sztuczną inteligencją, na których będą zarabiać no to świetnie było, żeby się przyłożyły również do finansowania badań skutków tejże sztucznej inteligencji tyle, że to nie wygląda tak jakby to było inwestycje po prostu badania niezależna gdzieś tam suwerenna obok tyka, bo to był inwestowanie w naukowców, którzy o łagodniejszym okiem spojrzą na to co się dzieje nie stad niestety, bo to jest także inwestują w obiektach na te badania ale gdy tylko pójdzie coś nie po ich myśli to sami kontrolują no tak no to jest właściwie do prasy, bo jak inaczej nazwać skandal, który wybuchł po tym, gdy w 2021 roku Google w ciągu 3 miesięcy zwolnił 2 świetne bardzo rozpoznawalne ekspertki zajmujące się etyką AJA chodzi to oczywiście o tym GRU i Margaret Mitchell, które rozważały zagrożenia związane z takim niekontrolowanym wzrostem wcześniej GOG brud nawet mówiłyśmy jeden z odcinków bardzo polecamy ten odcinek o sygnalistach i oni są bardzo aktualne, bo rzeczy, o których ci sygnaliści mówili, o którym zawiadamiali jak okazuje się będą nas tak wracały trochę jeszcze przez wiele lat na jej przykład brud jest idealna historia wygląda tak GB oraz micie pracowały w Google, gdzie były zatrudnione właśnie w zespole do spraw etyki sztucznej inteligencji GRU zrobiło się głośno w 2019 roku 2019 się współpraca, którego krzyż co możemy się bardzo ważnym momentom to był moment, w którym już była duża świadomość w tych największych firmach technologicznych, że ta inwestycja sztuczną inteligencję to nie są inwestycje nad, których efekty będą za dekadę 2 to będą za kilka lat, a co więcej, nawet jeżeli ta usługi jeszcze niebyły tak rozwinięte i tak dostępne jak dzisiaj to wszyscy je opracowywali w swoich laboratoriach już było oczywiste, że sztuczna inteligencja to będzie też ten nazbyt think to był też moment, w którym zaczęto dużo prac regulacyjnych chociażby Unii Europejskiej to był moment Zobacz zaczęto prace nad sejmikiem mają też regulacjach United jeszcze więcej powiem, ale to po takim Zobacz od końca agencja nie duże nakłady wiemy, że za chwilę, że to nie jest już kwestia dekady to kwestia kilku lat zaczną się te narzędzia już inteligencji przebiegną Streamu i widzimy też coraz większe zainteresowanie legislatorów po prostu regulacjami technologii i stąd myślę, że ten 19 dwudziesty roku tak wraca na rozmowę z 2019 rok, kiedy GRU publikuje artykuł, w którym udowadnia razem z jeszcze jedną z kuratorką, że aplikacja wiodących firm nie radzą sobie z rozpoznawaniem rysów kobiet i osób, które nie mają białego koloru skóry, czyli dość poważny problem i troszkę klasycznej wychodzi Googlea Haczek hak no, czyli GB wszczyna pierwszy alarm za innym razem badała oprogramowanie oparte na sztuczną inteligencję, które generowało komunikaty w różnych językach no i stwierdziła, że system jest podatny na rasizm oraz seksizm, kiedy działa na podstawie treści z internetu to niejedyny niestety można chodzić grzech GRU jeszcze bardziej wstrząsająca okazała się rozprawa opublikowano 2020 pierwszy roku przez gardło i liczą to jej tytułu o zagrożeniu Stocha stycznym papugami, czyli czy model językowy mogą być za dużo jak na postawie taką pauzę po to, trzeba wyjaśnić boja wiem, że ostatnie wydarzenia bardzo często wy, jakby tak metaforycznie wyjaśniamy za pomocą zwierząt mamy, więc tego czarnego łabędzia, który opisujemy wydarzenia mało prawdopodobne mamy szarego nosorożca którym, którą metaforą opisujemy wydarzenia bardzo prawdopodobne, ale czymże jest Stocha styczną papuga stochastyczny papuga, że taka papuga, która bezmyślnie powtarza ludzką mowę jak Dywity tak, ale też jak papuga po prostu tak i bezmyślnie powtarza łącznie z zakorzenionymi uprzedzeniami błędami poznawczymi autorki stwierdziły, że Stocha styczny papugi, czyli systemy SI oparto model językowe są zasady nie demokratyczna i tylko największe spółki są w stanie rozwinąć uruchomić i mieć dostęp do wielkich danych tusze są antydemokratyczne tak, że tylko naprawdę ci te BIK tech Week Tychy będą w stanie zaoferować tutaj na wysoce rozwinięte usługi metę się dzieje, ale jesteś oczywiście drugi zarzut te Stocha styczne papugi nie mają sumienia albo raczej nie wiedzą do końca co powtarzają, ale uważajmy przy tacie, żeby być bity i drożej, ale element nawet nie trzeba się odwoływać do czatu czy ty myśmy już państwu jedno odcinku opowiadały o czas w błocie Microsoftu, która budce właściwie nazywała się ta, która po zaledwie dobie w internecie konkretnie na Twitterze została rosyjską wychwalając Twittera no i Microsoft musiał wyłączyć tai błądziła powiedzmy nie, dlatego że zeszła na złą drogę tylko, dlatego że powtarzała jak ta papuga rzeczy twierdzenia powtarzane Troll zwane podczas samych widzów nad też tak jest no dobra te zarzuty to znaczy te zarzuty antydemokratyczną ości, czyli tego, że tylko najwięksi gracze będą mieli szansę na rozwijanie usług sztuczna inteligencja oraz teki powiedz mi kłopoty, czyli taki mi tak być takim Takumi mikro nie powtarza powtarzania wszystkiego co coś co wpadnie, czego będzie dużo to ma sens tak, ale skrót ma sens to za co GB imię, które straciły pracę w radzono w jeszcze przed publikacją tej rozprawy długu prosił je, żeby wycofały swoje nazwiska z listy autorów tam było bodajże 5 albo 6 autorek tego się nie zgodziły w efekcie GP została zwolniona od ręki, a Miedź po 3 miesiącach Jeff Green ówczesny szef jednostki sztuczną inteligencję Google tłumaczył że, choć poszło o to, że badacze nie uwzględnił najnowszych postępów dotyczących wpływu jak na środowisko i ukrytych uprzedzeń na formułowanie notarialne czy po prostu Bugu nie chciał być łączony z takimi wynikami badań z takimi, jakimi wynikami badań z takimi, jakimi refleksjami no bo rzeczywiście tak trochę, jakby papugi to własne gniazdo tutaj tam trochę kazały, ale może Google wyciągnie wnioski z tego wszystkiego staje istnieją danej rady z tym problemu z własnymi analitykami i ogarnął, że warto mieć na pokładzie podacie sztucznej inteligencji, którzy będą przygotować wytyczne takie naprawdę bardzo krytyczne dotyczące tej tej technologii to jest kolejne retoryczne pytanie, które dzisiaj stawiamy nową no co odpowiedź brzmi nie do końca dr Sebastian Szymański wręcz zauważa, że w przypadku Google można wręcz mówić o tzw. Blue szylingów, czyli o sytuacji, które firma posługuje się przesadzony twierdzeniami marketingowymi, które jeszcze wyolbrzymiają to zaangażowanie firmy odpowiedzialne praktyki społeczne gogle ma na swojej stronie bardzo się chwalić tym, że ma takie też zasady etyczne czym kieruje się w przy rozwijaniu sztucznej inteligencji są ze te 4 zbiór takich kompletnych ogólników jak prowadzę zajęcia ze studentami to to podaj w ten dokument jako przykład takiego jak to się, gdy plus silniku jak firmy stosowały greenwashing quiz prezentowały się jako bardziej ekologicznych są rzeczywistość cieszyć naprawdę nie zwracały większej uwagi na ochronę środowiska naturalnego to to wielkie wielkie firmy giganci liderzy na na rynku sztucznej inteligencji bardzo często stosują właśnie tego rodzaju podejście, że Mark czują różne działania, które mają rzekomo na celu z zapewnieniem, że rozwijanie stosowanie technologii i nazwany sztuczną inteligencją będzie miała ten etyczny wymiar, ale w rzeczywistości niewiele robi w tym miejscu być może warto podkreślić, że mówimy ku Blue, czyli firmy, które w, których sztuczna inteligencja jest od lat korowód produktem zaszczytem naprawdę we wszystkich usługach i to, że teraz spółka uruchomiła w stanach także barda czy tą swoją odnogę generator Ney potrafiącej tworzyć sztuczne inteligencji to po prostu kolejny, a nie pierwszy krok rozwoju tak, ale ja bym przywołała ten pierwszy krok w uruchamianiu barda, bo to jest no bardzo ciekawa historia na początku lutego, kiedy go dopiero zapowiadał, że też ma taką fajną ja jak Microsoft jak wcale nie jest gorsza opublikował reklamy barda miał on udowadniać, że jego jak potrafi bardzo po ludzku bardzo przystępnie o odpowiadać na pytania czytamy w nie, więc tak o jakich nowych odkryciach kosmicznego teleskopu Jamesa Webba mogą opowiedzieć moją 9 latkowi moi ja odpowiada kilkoma punktami w tym takim twierdzeniem, że teleskop wykonał pierwsze zdjęcia egzoplanet, czyli planet poza układem słonecznym ziemi fajnie tylko to jest nieprawda pierwsze egzoplanety zostały sfotografowane w 2004 roku prawie 20 lat temu no okej, czyli klasyka nie jak nie wie to ściemnia jak jak czegoś czegoś nie doczytał to kłamie albo tam wymyśla ja myślę w ciąży to takie najmniejsze etyczny problem jak etyczne tak etyczny tak tylko, że to nie jest problem etyczny to jest problem bardzo realnie biznesowy chodzi o to, że inwestorzy uznali, że reguły zbyt chaotycznie wprowadza nową usługę na rynek no i z wyceny spółki wyparowało uwaga 100 000 000 000USD TUW no jak widać sztuczna inteligencja może sporo kosztować, ale może sporo kosztować nas po prostu w przyszłości, bo na razie narzekaliśmy na jak największe świat na wieś świata technologii nie chcą nas zadbać tak to jest takie no wiesz no w nie szczególne zakończenia to dobra to niema co narzekać tylko zastanówmy się co można z tym zrobić, bo swoje no my jesteśmy z Polski i nam się dzisiaj na usta 1 regulować jak najszybciej pisać prawo, które zacznie brać jak rockowy nie ma prawie nie ma prawa nie ma problemów nie na sensie wierzę w to funkcjonujemy musi mieć wszystko wszystko się z paragraf choćby na przykładzie wspomnianych ilustracji udających zdjęcia i ryb reszta powinniśmy zacząć wymagać, żeby każdorazowo było opisane są fikcyjne jak ktoś złamie te wymogi to niech płaci ja oczywiście wiem, czego zmierzasz, ale może zróbmy krok do tyłu, bo tak naprawdę są 2 sposoby regulacji wewnętrznej zewnętrznej albo takie auto regulację branżowe albo regulacje narzucane z zewnątrz każdy z nich oczywiście ma swoje ograniczenia, jakie tłumaczy nam dr Szymański głównym problemem jest to, że albo mamy model samoregulacji, w którym w, którym ten, kto ma podlegać etycznym ograniczeniom sam tworzy te reguły sam egzekwuje, a jednocześnie bardzo mało bodźców tak bardzo słabą motywację do tego żeby, żeby te reguły też traktować poważnie, a nie tylko jako instrument do budowania dobrego wizerunku firmy, a z drugiej strony mamy ten problem z tym jak np. instytucje publiczne miałyby takie bardzo miękkie regulacje egzekwować pełnym zapleczem medycznym jest jeszcze także przeciwnicy do przepisów prawnych nie są takie precyzyjne jednoznaczne zawsze wymagają interpretacji tego, a w, więc tutaj raczej nie da się robić tego w taki sposób w jaki jak jesteśmy przyzwyczajeni kiedy, kiedy jest mowa o one o regulacji prawnych także, aby mamy dokumenty, w których ty tak te te reguły są sformułowane Jaś sposób jak dyrektywy ustawy rozporządzenia na tego rodzaju dokumenty jest cała, że taką sieć instytucji, które się tym zajmują sądy różnego rodzaju urzędy praw które, które zajmują się interpretowaniem prawa i tych rzek i egzekwowanie czy przed wyciąganiem konsekwencji w odniesieniu do tych, którzy się do prawa, stosując regulacje medycznymi tak prosto się nie ta niestety to praca takimi regulacjami już trwają od pewnego czasu w komisji europejskiej procedowany tzw. akt czy dyrektywa, która ma uporządkować działania sztucznej inteligencji zmusi twórców do większej odpowiedzialności, ale przede wszystkim to nowe prawo zebrało się takiego podziału wśród inteligencji nie ze względu na jej rodzaje nie ze względu na to jak usługi będzie oferowała tylko to bardzo ciekawy zamysł legislatorów ze względu na wysokość ryzyka, jakie ze sobą poszczególne rozwiązania mogą nieść podzielono ryzyka jaj akt na nieakceptowalne wysokie ograniczone, czyli wiążąca się z pewnym ryzykiem manipulacji minimalne są takie 44 poziomy i ten poziom najwyższy czy nieakceptowalne to są te to są takie rozwiązania takie usługi sztucznej inteligencji, który no po prostu naprawdę mogą spowodować, że nasz samolot to spadnie po prostu będzie to kraksa IT wg nowych przepisów, które są tworzone mają być całkowicie w Europie zakazana no i te usługi to m.in. takie, które będą wykorzystywały dane biometryczne w czasie rzeczywistym do egzekwowania prawa to jest 1 wyjątek, chyba że chodzi o odnalezienie ofiary lub sprawców przestępstw zakazane w Europie oczywiście ma być też wykorzystywanie przez organy publiczne systemów podobnych do tego chińskiego systemu zaufania społecznego, który ocenia naszą wiarygodność, czyli wykorzystuje ponownie dane biometryczne wszelkie dane, które są związane z naszym aktywnością taką Obywatelską publiczną, ale też prywatną do tego, żeby dopuszczać nas lub nie dopuszczać do pewnych usług no to jest bardzo fair czy w sensie ja się cieszę, że takie jest myślenie legislator tak brzmieć jak tak bardzo naprawdę przemyślana bardzo przemyślany art, który faktycznie wybiega w przyszłość i bierze pod uwagę też różne kierunki firm, jakie słusznej delegacja może rozwinąć tam oczywiście będzie jeszcze dużo w tych pracach działano, o czym za chwilkę trochę wiemy co się dzieje, ale kluczowe to, że prace nad jej akt faktycznie ostatnio przyspieszyły i przyspieszenie samej technologii High pewnie daje dodatkowego kopa pytanie tylko czy czy uda się za pomocą takich rozwiązań to sztuczną inteligencję w ogóle w Europie przypilnować no prof. Polański uważa, że niekoniecznie my jeszcze za mało wiemy na ten temat my le my jesteśmy wszyscy pełni takich oczekiwań górnolotne, że to wszystko powinno być niedyskryminujące to wszystko powinno działać na korzyść człowiek to wszystko powinno wspierać rozwój jednostki to wszystko powinno chronić naszą prywatność powinna być bezpieczna powinno być wytłumaczalne i odpowiedzialne, ale tak naprawdę przełożenie tych ogólnych pryncypiów bardzo ogólne tak na konkretne wskazówki jak to zrobić to jest jeszcze przed nami tutaj upatruję źródła jeszcze niedojrzałości można powiedzieć, że regulatora potrzebujemy czasu regulator potrzebuje czasu, a ja osobiście uważam, że przedwczesna regulacja jest różnie zła jak spóźniona regulacja, dlatego że możemy osłabić autorytet prawa i możemy spowolnić rozwój badania w tym zakresie dlatego ja uważam, że powinniśmy wprowadzać regulacje dopiero jak zobaczymy realną potrzebę będziemy widzieć rzeczywiście, że to jest absolutnie niezbędna ta regulacja powinna być minimalne to znaczy nie za dużo przepisów tylko mało, ale bardzo precyzyjnych takich naprawdę jesteśmy w stanie powiedzieć drugiej stronie ma zrobić to to i to to jest działanie zgodne z naszymi oczekiwaniami sprawę ucieka Uber czy nie doradzałbym tworzenia regulacji takich jak w obszarze etyki sztucznej inteligencji się na poziomie ultra ogólnych wysoko nad chmurami zasad typu człowiek na pierwszym miejscu bezpieczeństwo, bo to są piękne hasła tylko one nie mają treści jak i dlatego ja uważam, że wywołamy więcej szkód w tej chwili niż niż rozwiążemy problem już Polański używać 1 argumentu przeciwko regulacjom już tu i teraz twierdzi, że jeżeli Unia zacznie działać szczególnie zacznie bardzo działać taki rygorystyczny sposób jak czasami potrafi to nie tylko nie będzie to skuteczne to co, więc spowoduje, że firma zajmująca się sztuczną inteligencją po prostu wyniosą się z Europy do Stanów jednoczonych, a przede wszystkim do Chin tam będą swobodnie działać, a potem tak nas dalej swoimi produktami tak słyszałam ten argument tylko, że on mnie szczególnie przemawia po pierwsze, zanim dojdzie do uchwalenia tego aktu, a potem do jego wdrożenia w kolejnych państwach przecież to miną lata to po pierwsze po drugie, jeżeli nie Unia to kto to znaczy od dnia od dziś wiemy, że żyjemy w najlepszym ze światów nota też, że my, chociaż nie wszyscy się z nami zgodzą hak, ale no i na tak, jeżeli nie na to kto może sobie krytykować brak brak skuteczności wielu unijnych rozwiązań począwszy od RODO np. ale jednak na innych rynkach ta Ochota do pilnowania technologicznych rozwiązań i regulacji jest tak niska, że bez tego bez tego naszego przykładu on po prostu ciężko liczyć na inne regulacje ja tutaj naprawdę zgadzam myślę, że też warto czy rozliczać regulację unijnej rozpisze kolejności będziemy wdrażać rozliczać je Saidi mecz, gdyż to serwis, gdzie to market, która w przyszłym roku powinny być implementowane, ale to nie oznacza, że równocześnie nie można pracować bardzo tak pilnie nad regulacjami kolejnymi, ale chyba warto raz jeszcze przywołać prof. Polańskiego by zrozumieć pełnię jego wizję, bo on nie wywołuje takich wolnej Amerykanki tylko raczej lekki regulacyjnej rozwagi trzeba poważnie cały czas badacz zagadnienia inwestować wprowadzenie badań tutaj, czyli to co ja mówię jeśli chodzi o brak regulacji na razie to nie oznacza, że po prostu nic nie robimy tylko ten czas wykorzystujemy na prowadzenie badań szukanie optymalnych rozwiązań, dlatego że ja już w tej chwili mieć rozwijać jeszcze szybciej i mogą za chwilę pojawić problemy to właśnie generatory sztuczna inteligencja może generować za chwilę całe mnóstwo problemów chociażby w obszarze prawa autorskiego o tak już uczelnie szkoły zaczynają mieć problemy jak sobie z tym radzić będziemy mieć plagiat śmieć książki prace naukowe PiS, a ten przez prawdziwe osoby z krwi kości tylko przez generalną sztuczną inteligencję być może sztuka będzie za chwilę tworzona w ten sposób pojawi się jakiś pojawiły się różnego rodzaju próby oszukiwania społeczeństwa co do tego, że jest ekspertem w jakim zakresie, choć tak naprawdę nie mam zielonego pojęcia i odsiadki termin na wszystkie te pytania odpowiedział egzaminy będą zdawane przez generalną sztuczną inteligencję czy rzeczywiście może się za chwilę okazać, że będziemy, że będziemy mieć problemy, a martwić powinno nas to w tym kontekście, że największe firmy w stanach Zjednoczonych w tej chwili zaczynają zwalniać osoby zajmujące się etyką para np. Microsoft od w tej chwili zwalnia cało o rzesza osób zajmujących się etyką sztucznej inteligencji i głód był też widać, że w tej chwili rewolucja generacyjna sztucznej inteligencji i spowodowała, że przeformułowanie priorytetów tak też rzecz znamienna, że jeszcze do niedawna myślenie w kategoriach musimy stworzyć odpowiedzialność już inteligencję no właśnie póki nie było, jakby dowodu w postaci rozwiązania, które rewolucjonizuje rynek no to firmy były w stanie płacić za taki spokojny rozwój natomiast w momencie, kiedy już pojawiły takie rozwiązanie właśnie czas GTA to nagle się okazuje, że firmy, zmieniając całkowicie robót i w tej chwili rzeczywiście możemy nie możemy być świadkami sytuacji, w której technologia będzie się rozwijać bez żadnych zabezpieczeń dlatego powinniśmy inwestować w tej chwili badania to w szczególności Unia europejska powinna inwestować tania, a w pierwszej kolejności, ale Unia idzie w tym firm jest pełna zgoda absolutnie bo o ile nie okaże się, że za te badania ich finansowanie i oczywiście ustawianie debaty wokół nich też będą usta odpowiadać ich cechy to jest takie pewne no szczególnie w obiektach, które też wiadomo inwestują też w suszu inteligencja i a jeszcze bardzo ciekawa rzecz, której poziom Wskaż wskazał Polański tam oczywiście przywoła nasze wszystkie historie dzisiejsza się wspominano o zwolnieniach, ale właśnie ten moment jak już pojawiła się sztuczna inteligencja na rynku mainstreamowe to nagle te inwestycje badania w sztuczną, gdy wokół sztucznej inteligencji te etyczne okazało się być jakiś takim zbędnym balastem bardzo ciekawe to jest taka koincydencja może, dlatego że w tym samym czasie coraz większy inwestycyjną co innego, że chodzi o obiektach, a mianowicie w lobbing w Brukseli wokół tego, żeby prace nad regulacjami sztucznej inteligencji możliwie złagodzić to też jakoś w ogóle nie dziwi też lobbingowe wojenki zbadało opisała w niedawnym raporcie do lobbingu Gostyń maszyn organizacja Corporate Europe Observatory to taki łączy tak badające działania lobbingowe Unii Europejskiej w tym raporcie wskazuje, że za kulisami za kulisami prac nad AJA akt technologicznie rywale zjednoczyli się w celu opóźnienia i osłabienia unijnych regulacji firmy, zwłaszcza amerykańskie starają się zmniejszyć wymagania dotyczące wspomnianych systemu wysokiego ryzyka i jak czytamy w raporcie w szczególności lobbyści BigTech starali się wyłączyć regulacji nowo wprowadzoną koncepcję systemu sztucznej gen inteligencji ogólnego przeznaczenia chodzi o to by w sytuacji, gdy system, gdy tt systemu konkretne usługi sztuczna inteligencja będą stosowane przez inne firmy przez firmy trzecie to one podlegały regulacjom ani same usługi sztucznej inteligencji sprytna wspaniały wspaniały sposób na zrzucenie z siebie odpowiedzialności to prosto pogratulować pomysłowości takie przekierowanie na rzeczy nic, żeby było jasne ci stosujący też powinni podlegać wszelkim regulacjom odpowiedzialność przewidziana w danej no ale jeżeli oni będą korzystać produktu, który został już wcześniej przygotowane na to to widać od razu, że tam idzie idzie ostry takiej intelektualny szpagat w tym wszystkim w, tyle że jednak jest nadzieja, że ten wyścig zbrojeń, które obserwujemy wokół jaj spowoduje, że unijni legislatorzy zaczął jeszcze uważniej patrzeć co się dzieje szczególnie w obliczu tego, że na same filmy od sztucznej inteligencji tu nie mamy raczej liczyć czy coś raczyć inżynierowie, którzy będą tam ostrzegać 10% szans jest na to, że samolotu padnie to będą legislatorzy bardziej niż niż bitach ja mam nadziej, że nie będą nas ostrzegać przed upadkiem samolotu tylko po prostu zainstalują takie, a wojewódzki dla wszelkiego rodzaju spadochrony poduszki nie ma co jeszcze może być w samolocie, żeby jednak nie spadło i z tą optymistyczną myślą zostawiamy państwa, ale też liczymy, że będziecie razem z nami Pinie się przyglądać temu jak wyglądają prace nad sztuczną inteligencję o sztucznej inteligencji mamy już 2 odcinki ten trzeci polecamy państwu wszystkie można je odsłuchać na wszystkich możliwych platformach także na Spotify także na Spotify, chociaż wiemy, że są problemy naszą wydawczyni Katarzyna Michałowska, która bardzo dziękujemy za pomoc Piszcie do nas z opiniami uwagami jak zwykle opis odcinka umieścimy linki do źródeł i książek, z których można dowiedzieć się więcej, o czym się w temacie zaczepiać nas w mediach społecznościowych Piszcie do nas na Instagramie, gdzie można oglądać kulisy i 2 trwać trochę więcej o technologiach, o których mówimy mamy też naszego własnego my na tych starych małpa TOK kropkę FM czekamy na maile od was do usłyszenia dziękujemy tech symboli Sylwia Czubkowska Joanna Sosnowska Olić i technologia
Zwiń «