REKLAMA

Jak sztuczna inteligencja walczy z mową nienawiści?

Poranek Radia TOK FM - Weekend
Data emisji:
2021-05-29 08:20
Prowadzący:
Czas trwania:
13:51 min.
Udostępnij:

AUTOMATYCZNA TRANSKRYPCJA PODCASTU

Transkrypcja podcastu
poranek Radia TOK SA wujka jak reagować na hejterskich komentarzach, jakie zachowanie skutecznie obniży poziom agresji w języku, który nas otacza zbadali to korzystający z możliwości sztucznej inteligencji psychologowie z uniwersytetu Warszawskiego centrum badań nad uprzedzeniami projektem kierował dr hab. Michał Bilewicz prof. Uniwersytetu Warszawskiego, który jest teraz z nami dzień dobre dzień będzie tu okazuje się, że sam kontakt z mową nienawiści jak rozumiem z tego co Rozwiń » wyczytam państwo badaniu np. po prostu czytanie komentarzy w internecie zmienia nasze podejście reakcje zachowania granice tego co uważamy za dopuszczalne, a co nie proszę powiedzieć jak to dokładnie działa tak zadłużeni przestrzeń internetu wtedy, kiedy korzystamy coraz częściej z mediów społecznościowych czy portali informacyjnych jako główny źródeł informacji o świecie polityce stajemy się coraz częściej narażeni na nam na kontakt z Haiti, bo właśnie tam jest najwięcej i to widzimy również badania sondażowy takim najnowszym sondażu przypłacić porównawcze wiedzieliśmy, że ponad 80% Polaków ma doświadczenia hitem antyimigranckim czy antysemickim, więc jest to bardzo powszechne i od kilku lat badaliśmy konsekwencje tak założyliśmy, że osoby, które częściej czytają, a różne nienawistne wypowiedzi na temat grup mniejszościowych nie tylko zmieniają stosunek do tego mniejszościowych, ale też to chyba najbardziej przygnębiające od wrażliwi i osiągach to znaczy przestają spada ich wrażliwość na tego typu, ale przestają traktować jako jako coś karygodnego jako coś niepożądanego zaczynają traktować to jako zupełnie normalny sposób wypowiadania się i po jakimś czasie sami zaczynają się takim językiem posługiwać po po kilku latach prowadzenia różnych eksperymentów i badań sondażowych na ten temat stanęliśmy stworzyć taki model model epidemiczny taki mam taką symulację komputerową, która pozwala przewidzieć co się stanie populacji, kiedy kilka osób zacznie się posługiwać hitem są oni powiązani z pewną sieć taką jak np. rośnie w sieci społecznościowe na co dzień funkcjonujemy i właśnie co się dzieje z taką pracę po jakimś czasie widzimy, że po pracy hejt to się absolutną normą co więcej zaczyna dominować pogarda, jaką jako Eko taka główna sportowe emocje wobec grup mniejszościowych czy można optymalizować jest to bardzo bardzo przygnębiające odkrycia i one nas skłoniło do tego, żeby podjąć jakieś starania, żeby poszukać jakiś jakiś rozwiązań, które pozwalały może odkryć mechanizmy przeciwdziałające temu epidemicznym rozwojowi mowy nienawiści w sieciach internacie, ale nie tylko również w codziennych interakcjach ludzi to jest interesujące, bo państwo postanowili skorzystać z, bo to, bo to nam się kojarzą to są po prostu automat tak wydaje że, bo też niektóre mogą kojarzyć jako pot podobnie jak trolle internetowe, czyli po prostu raczej negatywnie państwo postanowili bota wykorzystać jako testera strategii do walki z agresją właśnie walki do powstrzymywania agresji sieci to jest bardzo interesujące co co się okazało, że to nowa nie emocji jest skuteczniejsza tak to właśnie wtedy, kiedy gdzieś zrozumieliśmy już, jakie są główne mechanizmy którymi ludzie się zarażają mową nienawiści czy po pierwsze, właśnie pojawienie się emocji pogardy zamiast empatii zamiast uczucia wtedy, kiedy widzimy cierpienie innego człowieka czy należącego do licznej grupy do narodu z drugiej strony właśnie powstanie tego puszczano my wszyscy wokół się posługują takim językiem jest to zapewne normalny język jest pewne coś pożądanego, gdy tracimy podejrzeć proces to zacznie rozprawiać się też zastanowić czy można proszę odwrócić stąd nasza współpraca zarówno z organizacjami pozarządowymi, które zajmują się zmian w stosunku Polaków różnych grup mniejszościowych 2 ojcu, ale też właśnie działania z zastosowaniem sztucznej inteligencji to czas, kiedy miałem przecież spotkać ekipę z, a samo relaks, czyli takiego stanu technologicznego w Trójmieście, który od wielu lat zajmuje się właśnie tworzeniem rozwiązań opartych na sztucznej inteligencji również podchodzą do przeciwdziałania różnym problemowi zjawisko tak macie skład przemocy rówieśniczej wśród dzieci, które często dochodzi w grach komputerowych czy czy nawet takich problemowych bardziej zachowań przestępczych jak pedofilia to wszystko tak naprawdę można temu w jaki sposób przeciwdziałać, podejmując takie działania czy systematycznie analizują treść internetu w sposób właśnie taki zastosowaniem samouczących się mechanizmu no i pomyśleliśmy, że może coś takiego można również zastosować do przeciwdziałania mowie nienawiści w internacie i razem z grupą sama mam zastanowimy się nad tym czy można sprawdzić skuteczność ich, bo ta przeciwdziałaniu hejtu na jednym z dużych mediów własnością radzicie nam wtedy właśnie Samuela zidentyfikowała taki 1 kanał Digital, gdzie dochodzi bardzo często różnych seksistowskich oba, żeby wystąpień użytkowniku i ten robot, którego które, który miał przeciwdziałać takim wypowiedziom, gdy tylko usłyszał taką wypowiedź konsultował się dany użytkownik jak ta zgodnie z tymi kilkoma wybranymi modelami, które gdzieś tam odbywały się do wcześniejszej naszej wiedzy z badań psychologicznych, czyli albo właśnie odbyło się to normy mówił bardzo grzeczny kulturalny sposób, że tak nie należy się wypowiadać chcielibyśmy wszyscy chyba żyć w świecie, w którym wypowiedzi nienawistne nie są normą, którą są one raczej odrzucane albo zwracam się do takiego hejtera, odwołując się do empatii stają się uświadomić to robi, że po drugiej stronie ekranu jest również jakiś człowiek, że ktoś, kto jest tak nazwany czy to takie rzeczy o sobie jak się poczuje tak jak kot czy co czy takie emocje może tak walecznej tego typu interwencje miały właśnie wywołać wywołać bardzo ostrożnie kilka modeli takich różnych interwencji i później sprawdziliśmy jak zachowują się, a ci użytkownicy internetu miesiąc później to czy rzeczywiście, jaką mamy sobie ilość hejtu, które płyną z takiego konta miesiąc przed spotkaniem z naszym potem i porównamy to do liczby takich wypowiedzi wyszkolić takich wypowiedzi w miesiąc po spotkaniu z tematem obyśmy wtedy jeśli jakiś sposób skuteczność skuteczność takiego oddziaływania oczyści proponują też do tych kont, które się nie spotkały potem też te generowały wcześniej hejt i faktycznie zobaczyliśmy coś bardzo optymistycznego, że wydaje się, że ta epidemia jest nie do powstrzymania, ale jednak zachowanie poszczególnych użytkowników można zmieniać niezależnie od tego czy nasz, bo od odwoływał się do empatii czy też do norm można tego jak powinno się powinniśmy się zachowywać, jeżeli tylko usługiwał, jeżeli tylko grzeczny sposób konfrontował się z Hitlerem to wpływał NATO na zmniejszenie częstości używania hitu przez danego użytkownika w miesiącu areszt po ten interwał czy boty były interpretowane jako jako boty czy udawał użytkownika, bo był dobrym lotem, czyli posługiwał się językiem idealnie przypominającym język naturalne, czyli faktycznie użytkownicy, którzy się spotykali uważali go za bardzo dziwnego bardzo nietypowego, ale jednak na użytkownika to jest bardzo przygnębiające, że ktoś, kto posługuje się takim grzecznym kulturalnym językiem w mediach społecznościowych jest traktowany jako dziwak, ale pan jako dziwak, ale jednak jednak traktować jako jako zwykły użytkowy po jakimś czasie oczywiście został na spłatę interwencji po kilku miesiącach został rozpoznany jako jako sztuczne kantorku jak wiele innych sztucznych kont, które są zwykle stosowane raczej złych celach i tak naprawdę ten drobny eksperyment miał pokazać nie tyle to, o czym można zastosować bodźce do przeciwdziałania mowie nienawiści w sieci i raczej pokazać jak moglibyśmy się wszyscy zachowują znaczy jak my byśmy mogli reagować, czyli tego, jaka była skuteczność takich działań wygląda na to, że byłaby całkiem sporo skorzy bardzo rzadko tak robił to jakieś pieniądze, jakie pan właśnie, jakie wnioski możemy z tego wyciągnąć jak możemy my się zachowywać w sieci na co dzień w obliczu tego co państwo ustalili jednak dodam też taki pomysł może by wypuścić jednych boty do internetu te uprzejmością boty, bo zmierza mierzenie się z komentarzami negatywnymi to jest naprawdę bardzo męcząca i nużąca rzecz to znaczy, kiedy człowiek ma lepszy dzień tego mniej to rusza, kiedy ma gorszy dzień po prostu wypadł tekst kupują po prostu te panie te hejterskie komentarze nie muszą dotyczyć nas personalnie, ale jak mówiliśmy o tym samo obcowanie z tym wszystkim jest męczące, więc może pójść w armii botów miły botów na hejterów wolałbym, żebyśmy nie przeszli na komunikowanie się wyłącznie za pomocą botów i narzędzi technologicznych jednak wierzę w to, że przestrzeń internetu jest nadal przestrzenią komunikacji potencjalnie również wartościowej komunikacji, a więc wolałbym, żebyśmy to my zwykli użytkownicy zaczęli się zachowywać tak trochę inaczej to gdzieś widzieliśmy tak dużych badaniach sondażowych, które teraz wprowadziliśmy w Polsce takie pytanie i w Niemczech, że tak dominującą reakcją użytkowników internetu na hejt jest jego ignorowanie to znaczy, jeżeli widzimy coś takiego co zwykle, ale postaramy się opuszczać w ogóle takie miejsca, gdzie będzie, gdzie hejt może się pojawić, ale postaramy się ignorować tak i nawet często takie różnego rodzaju poradniki zachowań w sieci albo nawet lekcje, które często bardzo nas polskich szkołach 5 osiedle weryfikować takich, jakie podejście mówi się często nie karmić Trolla, a nie powinniśmy dawać im satysfakcję naszą odpowiedzią i zgadzam się, że nie powinniśmy dawać satysfakcji, odpowiadając na tym samym poziomie ponieważ, odpowiadając agresją na gest jednak uważamy tylko do eskalacji agresji natomiast, jeżeli grzeczny sposób komunikujemy dolne to albo grzeczny sposób wywołane empatię u tych użytkowników, którzy generują hejt w internecie to wtedy możemy zmienić zachowania dlaczego, ponieważ wtedy rozbija się w bankach i oni funkcjonują oni funkcjonują praktycznie przestrzeni, w której nienawiść często jest jedynym sposobem komunikowania swoich postaw przekonań i konfrontacja z drugą stronę to znaczy, która będzie miała zupełnie inny charakter, czyli taki właśnie dziś uświadamiające, że internet powinien być miejscem komunikacji oni językiem przemoc nie jest przemocy to może tak naprawdę ich zmienić i stąd na wskazówkach, które płynie z tych badań podobnie jak kilku, które obecnie prowadzimy to, że należy, że możemy to wszystko zmienić czy możemy zmniejszyć nasze zachowania, że należy reagować oczywiście należy też reagować innymi kanałami należy też zgłaszać zgłaszać wypowiedzi, które łamią zasady mediach społecznościowych i takie opcje przecież są w czubie na Facebooku Twitterze rzadko z nich korzystamy, ponieważ jak pokazują badania jest przez komisję europejską w wielu mediach społecznościowych nie jest skuteczne, ale trzeba próbować to raczej więcej tego będziemy robić tym większa szansa, że same media społecznościowe w tym momencie się zmienia bardzo dziękuję za rozmowę dr hab. Michał Bilewicz prof. Uniwersytetu Warszawskiego był naszym gościem centrum badań nad uprzedzeniami, więc znajdą państwo na stronach Uniwersytetu Warszawskiego dziękuję serdecznie życzę spokojnego weekendu dziękuję ósma 36 za chwilę skrót informacja o nim będzie z nami pani prof. Agnieszka Szuster-Ciesielska z katedry wirusologii Immunologii Uniwersytetu Marii Curie Skłodowskiej w Lublinie będziemy rozmawiać w związku z decyzją europejskiej agencji leków o zatwierdzeniu szczepionki Pfizera i majątek dla dzieci powyżej dwunastego roku życia szczepionki oczywiście przeciwko covid-19 Zwiń «

PODCASTY AUDYCJI: PORANEK RADIA TOK FM - WEEKEND

Więcej podcastów tej audycji

REKLAMA

POPULARNE

REKLAMA

DOSTĘP PREMIUM

Podcasty TOK FM oraz radio TOK+Muzyka bez reklam - teraz 60% taniej w promocji Black Friday!

KUP TERAZ

SERWIS INFORMACYJNY

REKLAMA
REKLAMA
REKLAMA