Wywiady

Michał Wroczyński (Samurai Labs) – Nasza sztuczna inteligencja zapobiega przemocy i wyszukuje osoby zagrożone samobójstwem

Artur Kurasiński – Pamiętam jak bardzo dawno temu zajmowałeś się kwestiami sztuczną inteligencją pracując w Kalifornii. To stąd się wziął pomysł na Samurai Labs? 

Michał Wroczyński (Prezes Zarządu i współtwórca Samurai Labs) – można powiedzieć, że sztuczną inteligencją zajmowałem się od zawsze, ale aby być precyzyjnym to należałoby sięgnąć ponad 10 lat wstecz, kiedy to tworzyliśmy pierwsze systemy wykrywające pedfoiliów – system Cerber,  czy nieco później system ISPAD wykrywający przemoc w sieci.

Jednak wtedy nikt nie zdawał sobie sprawy ze szkodliwości cyberbullyingu. Agresywne wpisy pod artykułami czy na forach postrzegane były raczej jako coś co przyciąga kolejnych użytkowników. Dziś na szczęście się to zmieniło. Samurai jest jednak czymś więcej niż suma poprzednich doświadczeń także tych z Kaliforni gdzie dużo się nauczyliśmy. Samurai to projekt idący dalej. 

Nad czym dokładnie teraz pracujecie? Zajmujecie się tak zwaną „trzecią falą AI” i prawie automatycznie działającym systemem moderującym działającym w czasie realnym. Brzmi to bardzo tajemniczo. 

Rozwijamy naszą technologię i wzbogacamy o wykrycie coraz to kolejnych zjawisk związanych z cyberprzemocą. Tak jak wspomniałeś, nasze podejście wpisuje się w tak zwaną trzecią falę sztucznej inteligencji, nazwaną tak w 2017 roku przez Agencję Zaawansowanych Projektów Badawczych w Obszarze Obronności (Defense Advanced Research Projects Agency – DARPA).

To  kolejny, następujący po uczeniu maszynowym (Machine Learning / Deep Learning), etap w rozwoju  SI, do którego dokładany jest bardzo istotny komponent – wnioskowanie w oparciu o język oraz wiedzę ekspertów badających przemoc internetową.

Takie podejście pozwala nam na skuteczne reagowanie na przemoc w sieci w czasie rzeczywistym – pozwala to na reakcję tu i teraz tam gdzie jest to potrzebne, czyli na przykład w przypadkach zagrożenia samobójstwem. 

Statystyki są bardzo niepokojące: według danych NIK w Polsce 70% młodych osób spotkało się ze zjawiskiem cyberprzemocy. Według danych FBI około 750 tysięcy pedofilów loguje się do internetu i poluje na swoje ofiary. Strach pozwolić swoim dzieciom dać telefon do ręki… 

Polska jest na drugim miejscu wśród krajów Europejskich pod względem samobójstw nieletnich. Wyprzedzają nas tylko nieznacznie Niemcy z tym, że to dwa razy większy kraj, więc tym bardziej sytuacja w polsce jest niepokojąca.

Mnie osobiście dane te przerażają tym bardziej, że  raport NIK jest oparty jedynie na szczątkowych danych. Zakłada się, że skala zjawiska jest dużo większa i trudno ją badać ze względu na brak wiarygodnych danych.

Przyczyną braku rzetelnych informacji na ten temat jest niewystarczający monitoring oraz fakt, że ponad 50% dzieci i młodzieży deklaruje, że nie przyznałoby się nikomu gdyby padło ofiarą cyberprzemocy.

Wiemy, że problem rośnie, ale poznanie jego prawdziwej skali wymaga bardziej precyzyjnych narzędzi detekcji. 

Dzieci są obecnie najszybciej rozszerzającą się grupą odbiorców usług internetowych. Stanowią jedną trzecią użytkowników internetu, a co dwie sekundy nowe dziecko loguje się po raz pierwszy.

Dostawcy usług internetowych muszą robić dużo więcej by zapewnić najmłodszym bezpieczeństwo w sieci. Coraz więcej krajów wprowadza i lub zaostrza istniejące regulacje prawne dotyczące ich bezpieczeństwa i prywatności.

Z drugiej strony, rośnie też świadomość dotycząca zagrożeń związanych z korzystaniem z internetu, za czym idzie coraz więcej odgórnych regulacji. Jednak to wciąż za mało. Obecne działania są tylko reakcją na objawy, a nie leczą przyczyny. Trzeba zacząć działać systemowo i zapobiegać przemocy w sieci, a nie leczyć jej skutki. 

W Samurai Labs zainwestowała Unia Europejska i Robert Lewandowski. Dość niesamowita mieszanka inwestorów. Możesz opowiedzieć jak do tego doszło? 

Na tę chwilę inwestorów mamy znacznie więcej. Warto rozróżnić finansowanie pozyskane na R&D z grantów NCBIR czy z programu Horyzont 2020 od kapitału, który zgromadziliśmy od prywatnych inwestorów i funduszy inwestycyjnych.

W tym drugim przypadku myślę, że wspólnym mianownikiem tych wszystkich inwestorów jest to, że chcą zmieniać świat i widzą, że nasze rozwiązanie oprócz zwrotu z inwestycji przyniesie im także poczucie dobrze spełnionej misji.

Obecnie w USA jest mocny trend na tego typu przedsięwzięcia. Start-up’y realnie zmieniające świat mają teraz szereg możliwości pozyskania kapitału, a to jakiś czas temu nie było takie proste. Dziś, w dobie obecnych przemian myślę, że to słuszna droga i możliwości w tym zakresie będą tylko rosły.   

Dlaczego ludzie (dorośli i dzieci) tak często sięgają po hejt, przemoc czy agresję w stosunku do innych użytkowników internetu? Z nudy? Czy z braku wiedzy o tym co robią?

Wybitny psychiatra, specjalista od badań nad uzależnieniami, Gabor Maté twierdzi, że hejt jest dziś formą współczesnego narkotyku. Kiedy jesteśmy w lęku, kiedy jest nam ciężko i zaczynamy czuć gniew, to internet po prostu daje nam wytchnienie.

Przecież w sieci łatwiej komuś dopiec niż w świecie rzeczywistym, mając bezpośredni kontakt z daną osobą. Z kolei prof. Bilewicz zwraca uwagę, że w Polsce jest w ludziach mniej nienawiści, ale za to coraz więcej pogardy.

To, co dzieje się w internecie, jest odzwierciedleniem tego stanu rzeczy. Myślę też, że nie umiemy także ze sobą rozmawiać – nikt nie uczy dzieci jak nie ranić drugiej osoby. W jaki sposób krytykować zachowanie nie dotykając przy tym drugiego człowiek?

Jest różnica w powiedzeniu “jesteś głupi”, a “zachowałeś się głupio”. To dwa zupełnie różne przekazy. Pierwszy ocenia osobę jako całość, drugi tylko zachowanie. Ważne abyśmy także zwracali na to uwagę – taki mały pierwszy krok.

Nasza sztuczna inteligencja wyłapuje takie niuanse i w razie potrzeby jest w stanie upomnieć na forum daną osobę, powiedzieć “hej tak się nie robi, mogłeś zranić kogoś uczucia”. I wiesz co? To działa, okazuje się, że dając wskazówki internautom na forach, mówiąc, że ktoś źle się zachował wobec drugiego człowieka obniżyliśmy poziom agresji o 40%! 

Jak dokładnie działa wasze rozwiązanie? Weźmy na przykład czat online w popularnej, sieciowej grze komputerowej typu Fortnite. Loguję się tam i zaczynam obrażać innych gracz. Co robi wasze AI ze mną?

Na początku dostaniesz upomnienie, tak zwane przywołanie do normy, a w praktyce taki komunikat może brzmieć tak “na tym czacie nie obrażamy innych graczy, przestań proszę”. Jak będziesz dalej rozrabiał możliwości jest kilka, kolejne upomnienie, czasowy tak zwany ban czyli usunięcie gracza z forum na 20 minut – aby ochłonął. I to w 90% wystarczy.

Rodzajów interwencji czyli reakcji na niepożądane zachowanie są dziesiątki. Nasz Samurai (tak nazywamy naszą sztuczną inteligencję) sam dobiera najbardziej pasującą i skuteczną odpowiedź.

Tam gdzie ktoś uporczywie rozwala innym grę, nie stosuje się do reguł Samurai może na stałe zablokować daną osobę lub przekierować tę decyzję do administratora z stosowną rekomendacją. 

Jednak zamiast karać, blokować i raportować chcemy wykorzystać moc pozytywnej motywacji i wpływu społecznego aby zmieniać standard dyskusji w sieci.  Okazuje się, że życzliwa wiadomość, oparta na empatii i szacunku do odbiorcy, przypominająca, że po drugiej stronie jest prawdziwy, wrażliwy człowiek, ma potencjał by pozytywnie wpłynąć na zachowanie agresywnych internautów. 

To jak łatwo jest zapomnieć, że nasze zachowanie w sieci ma prawdziwe konsekwencje w rzeczywistości, przyczynia się do nagannych zachowań online. Niektórym wystarczy po prostu o tych konsekwencjach przypomnieć. 

Taki „automatyczny nadzorca” nie popełnia błędów, nie ma problemu z rozróżnieniem sarkazmu, ironii albo cytowania? To w końcu tylko algorytm.

Nie ma idealnych systemów, które nie popełniają błędów. Istota polega na tym, że Samurai popełnia ich zdecydowanie mniej niż światowi giganci zajmujący się tym zagadnieniem.

Ich trafność w ocenie przemocy w sieci oscyluje w okolicach 50% czyli tyle co rzut monetą. Nasz Samurai jest znacznie skuteczniejszy. Język nieustannie ewoluuje, jednak możliwość adaptacji do tych zmian i oparcie naszych modeli o gramatykę, a nie słowa kluczowe powoduje że Samurai ewoluuje wraz z zmianami językowymi czy nowymi zwrotami, które naturalnie pojawiają się w danym języku. 

Sprawdzaliśmy czy modelem wytrenowanym na ironii/sarkazmie można wykryć cyberbullying. Okazało się,że jest to możliwe w 82%. Co to znaczy? Dotychczas w żadnych badaniach nad wykrywaniem cyberbullyingu pojęcie ironii nie było wykorzystywane w praktyce – przeważnie funkcjonowało tylko jako „future work” czyli coś czym zajmiemy się po pokonaniu tego z czym badacze borykają się obecnie.

Nasze wyniki pokazują, że nie tylko powinno się wykorzystywać ironię/sarkazm do wykrywania cyberbullyingu, ale wręcz jest to niezbędne, gdyż modele uwzględniające ironię i sarkazm są w stanie wykryć nękanie w większości przypadków.

Oprócz oczywistych miejsc gdzie wasz software może być wykorzystany (portale społecznościowe, gry itd.) jakie są inne jego zastosowania? To może być część systemu operacyjnego? 

Jak najbardziej. System Samurai może być wykorzystany wszędzie tam, gdzie istnieje jakaś komunikacja między użytkownikami. To mogą być zarówno aplikacje randkowe (w których możemy wykryć nękania i ataki na tle seksualnym czy też groźby), gry online, portale społecznościowe czy jakiekolwiek serwisy oferujące możliwość komentowania treści.

Samurai może być też częścią systemu operacyjnego – chroniąc na przykład dzieci przed atakami czy cybernękaniem gdziekolwiek nie pojawią się w sieci.

Walka z przemocą słowną zawsze na pewnym etapie zaczyna mieć tę mroczną stronę w postaci cenzury. Jest to bardzo cienka i umowna granica. Wasi klienci nie mają z tym problemu? Nie pytają się was jak dokładnie działa wasze oprogramowanie żeby przypadkiem nie doszło do sytuacji, że użytkownicy jakiegoś serwisu na którym działa AI Samurai Labs po prostu uciekają z powodu wycinania ich postów? 

Nie zgodzę się z tym, że walka z przemocą to cenzura. Jest zasadnicza różnica pomiędzy wyrażaniem opinii a przemocą. Dla mnie ta granica jest bardzo wyraźna.

Przemoc słowna zawsze powinna być eliminowana obojętnie czy mamy z nią do czynienia w świecie rzeczywistym czy w wirtualnej przestrzeni internetu. Jeżeli nauczyciel na przerwie natknął by się na ucznia, który używa przemocy słownej wobec swojego kolegi, to zapewne by interweniował.

Tu jest podobnie, interwencja to nie cenzura, a każda społeczność w tym ta internetowa ma swoje normy. Ten kto je łamie jest o tym informowany i upomniany. To moderator w momencie uporczywego przekraczania norm przez agresywne osoby podejmuje decyzję o tym czy wykluczyć z danego forum niepożądanego użytkownika.

Wszystkie firmy, z którymi rozmawiamy szukają takiej pomocy. Nie są wstanie przeczytać, upomnieć  czy zareagować na każdy wpis więc szukają rozwiązań automatycznych, systemowych. Obecnie nawet 20% graczy rezygnuje z rozgrywki ponieważ jest słownie nękanych. Strażnik taki jak Samurai będzie czuwał nad tym, aby tak się nie działo, a to doceniają firmy z branży gier czy duzi wydawcy.  

Mark Zuckerberg zeznając przed komisją senacką w USA żalił się, że Facebook nie był w stanie zapobiec tragedii ludobójstwa w Mjanmie ponieważ nie zatrudniał tłumaczy mogących zrozumieć treści przesyłane przez agresorów. Jesteście w stanie operować na różnych językach i pomagać zwalczać hejt na całym świecie? 

Nasze działania zaczynamy od języka angielskiego – ten mamy najbardziej przeanalizowany pod względem jego struktury gramatycznej oraz najlepiej rozumiemy jego warstwę kulturową.

Zuckerberg źle zdefiniował problem. Po pierwsze zatrudnianie armii moderatorów jest bezcelowe – sam to przyznał. Nie miał takich tłumaczy…. i ciężko aby miał. Na świecie co minutę publikowanych jest 2,5 miliona postów na Facebooku. Tu rozwiązaniem jest tylko i wyłącznie sztuczna inteligencja, która będzie wstanie masowo wykrywać przemoc i nie będzie uzależniona od tego czy akurat dany tłumacz pojawił się w firmie.

Kolejnym problemem wielkich korporacji takich jak Facebook czy Google w podejściu do wykrywania przemocy jest oczekiwanie, że stworzą uniwersalne narzędzie pomijając warstwę semantyczo-kulturową języka. Nie tędy droga. Aby skutecznie wykrywać przemoc należy dostosować tak narzędzie aby uwzględniało ono meandry związane z danym językiem i my to robimy.

Jesteśmy w stanie nauczyć naszą sztuczną inteligencję każdego języka, ale zawsze będzie to oddzielny proces bo każdy język różni się i aby być skutecznym trzeba dokładnie przeanalizować jego gramatykę i semantykę. Dzięki takiemu podejściu w angielskim potrafimy skutecznie wykrywać przemoc, a nasi konkurencji są daleko za nami. – 

Mówi się, że AI trzeba „skarmić danymi” żeby nauczyła się jak ma działać. Takie zasoby danych są dostępne dla największych firm technologicznych (Apple, Facebook, Google czy Amazon). W czym wasze rozwiązanie jest lepsze albo konkurencyjne w stosunku do liderów rynku? 

Zagadnienie dużej ilości danych potrzebnych do odpowiedniego działania systemu tyczy się systemów statystycznych (machine learning / deep learning). Tak jak wspominaliśmy, Samurai działa w paradygmacie III fali sztucznej inteligencji, która nie wymaga tak dużej ilości danych.

Z jednej strony takie podejście jest bardziej czasochłonne jeżeli chodzi o rozwój systemu, jako że wymaga specjalistycznej wiedzy lingwistycznej na temat działania języka oraz mechanizmów i konstrukcji gramatycznych jakie stoją za danymi atakami i przemocą.

W przeciwieństwie do Google czy dużych graczy na rynku, mamy jednak ten komfort, że nie mamy obowiązku działać we wszystkich językach na raz i możemy skupić się na precyzyjnym rozwiązaniu obejmującym bardzo różnorodne zjawiska.

Dzięki temu rozwijamy system, który osiąga bardzo wysoką precyzję i może być używany w czasie rzeczywistym do automatycznych interwencji. Jest również odporny na ataki, na które wrażliwe są systemy w pełni statystyczne — wystarczy literówka, dodanie do groźby czy ataku słowa pozytywnego np. miłość, aby klasyfikator popełnił błąd w ocenie zdania.

My takich błędów nie popełniamy bo nasz system działa inaczej, rozumie kontekst wypowiedzi i jest w stanie skutecznie reagować. 

Jakie jest wasze marzenie związane z Samurai Labs? Całkowite pozbycie się hejtu i przemocy z internetu?

Całkowite pozbycie się przemocy z internetu to ideał do którego dążymy i zarazem wiemy, że jest to cel praktycznie niemożliwy do zrealizowania ale od tego są ideały. 

Natomiast znaczna redukcja przemocy to całkiem realny cel. Biorąc pod uwagę skalę z jaką mamy do czynienia i sposób w jaki ludzie obecnie korzystają z internetu nawet niewielki procent redukcji tych zjawiski przekłada się na realną liczbę ocalonych ludzkich istnień.

Zapobiegnięcie samobójstwu nawet jednego dziecka już będzie sukcesem. Nasze rozwiązanie może chronić dzieci, młodzież ale także dorosłych przed agresją, przemocą i predatorami czającymi się w sieci. Co ważne automatyzując proces interwencji za pomocą Sztucznej Inteligencji Samurai odciążamy także moderatorów.

Mało się mówi o negatywnych skutkach pracy nad moderacją serwisów, jednak ciągły kontakt z przemocą może mieć negatywne skutki dla moderatora – my jesteśmy w stanie zminimalizować kontakt z tego typu treściami.  

Pandemia COVID-19 wywróciła nasz świat. Był taki moment, że prawie połowa ludzkości siedziała zamknięta w swoich domach. Lockdown spowodował, że cały czas przebywaliśmy z rodziną na ograniczonej przestrzeni. Jakie nowe problemy w związku z tym zauważyliście?

Lock Down spowodował, że nie tylko byliśmy zamknięci w domu, ale także cała nasza komunikacja przeniosła się do sieci. Zdalna praca i nauka stały się naszą codziennością. Godziny spędzone w sieci mają także swoją ciemną stronę. Pierwsze dane płynące z UNICEF pokazują wzrost aktywności pedofilów w sieci, w szczególności groomingu (uwodzenia) i sextingu (przesyłania nieodpowiednich treści o charakterze seksualnym). 

Zamknięte w domach dzieci są bardziej niż kiedykolwiek narażone na internetowych predatorów. Izolacja i dystans społeczny spowodowały około 70% wzrost nienawiści wśród dzieci i nastolatków na wirtualnych czatach, 40% skok toksyczności na platformach gamingowych oraz 900% wzrost poziomu mowy nienawiści wobec osób Azjatyckiego pochodzenia na Twitterze.

To tylko pierwsza fala problemów, niestety najgorsze skutki pandemii jeszcze przed nami. W wyniku kryzysu gospodarczego i masowych zwolnień możemy spodziewać się drastycznego wzrostu liczby samobójstw. Problem polega na tym, że wskaźnik samobójstw rośnie wprost proporcjonalnie do wzrostu stopy bezrobocia to znaczy, że w ciągu najbliższych 24 miesięcy możemy spodziewać się kolejnych 20 000 prób samobójczych w Europie i Stanach Zjednoczonych. To co my jako Samurai możemy zrobić to wyłapywać sygnały jakie ludzie pozostawiają na forach czy czatach i starać się interweniować. 

Dane UNICEF pokazują wzrost wykorzystywania seksualnego dzieci przez Internet, w szczególności pedofilskiego groomingu (uwodzenia) i sextingu (przesyłania nieodpowiednich treści o charakterze seksualnym). 

Zamknięte w domach dzieci są bardziej niż kiedykolwiek narażone na internetowych predatorów. Zgodnie z raportem L1ght izolacja i dystans społeczny spowodowały około 70% wzrost nienawiści wśród dzieci i nastolatków na wirtualnych czatach, 40% skok toksyczności na platformach gamingowych oraz 900% wzrost poziomu mowy nienawiści wobec osób Azjatyckiego pochodzenia na Twitterze.

Według Marianne Hester (socjolog z Uniwersytetu Bristolskiego) warunki życia spowodowane pandemią przyczyniają się do wzrostu przemocy domowej. Dane potwierdzają ten trend. W Hiszpanii liczba doniesień o przemocy domowej wzrosła o 18% w pierwszych dwóch tygodniach izolacji, a we Francji o 30%.

Długotrwała izolacja będzie miała również negatywny, długoterminowy wpływ na nasze zdrowie psychiczne. Wyniki metaanalizy badań nad psychologicznymi skutkami kwarantanny wskazują na zwiększone ryzyko objawów stresu pourazowego zarówno u dorosłych, jak i u dzieci.

Najczęstsze skutki psychologiczne obejmują obniżony nastrój, drażliwość, bezsenność, stres, wyczerpanie, zaburzenia emocjonalne i depresję. Ponadto skutki, takie jak strach przed miejscami publicznymi i obsesyjne mycie rąk, mogą utrzymywać się przez wiele miesięcy po izolacji.

W wyniku kryzysu gospodarczego i masowych zwolnień możemy spodziewać się fali samobójstw. W Stanach Zjednoczonych liczba bezrobotnych wzrosła w marcu o 1,4 miliona. Aaron Reeves (Oxford University) wyjaśnia, że ​​wskaźnik samobójstw rośnie wprost proporcjonalnie do wzrostu stopy bezrobocia to znaczy, że w ciągu najbliższych 24 miesięcy możemy spodziewać się kolejnych 20 000 zgonów w wyniku samobójstwa w Europie i Stanach Zjednoczonych.

Zoom, Skype, Slack, mail, czaty – nasze życie zostało brutalnie i w przyspieszonym tempie “zcyfryzowane”. Dzieci uczą się online, dorośli “chodzą” do pracy czyli pracują na swoich komputerach. Szukam w tym pozytywów – może taka wymuszona edukacja spowoduje, że zrozumiemy, że przemoc werbalna to nie tylko problem “jakiś tam czatów” tylko to, z czym się spotykamy w rzeczywistości (szkole, pracy). Czy może za dużo wymagam od nas, ludzi?

Łatwo jest wpaść w pułapkę myślenia, że wymiar rzeczywisty i wirtualny to dwa odrębne, autonomiczne światy. Jednak wiemy, że nie istnieje żadna twarda granica między nimi. Wydarzenia z życia codziennego wpływają na świat online i vice versa

Dziś znaczna część osób jest nieustannie online, pracuje, kontaktuje się z przyjaciółmi czy rodziną. Tak jak zauważyłeś jesteśmy cały czas w sieci. Zjawiska takie jak przemoc werbalna często wynika z braku świadomości, że przez Internet można komuś wyrządzić krzywdę.

Z naszych badań wynika, że czasami wystarczy zareagować, powiedzieć, że w tym miejscu tak do siebie się nie odnosimy by zmienić postawę ludzi wypowiadających się na danym forum czy czacie.

Sami byliśmy zaskoczeni jak skuteczne okazało się takie “przywołanie do normy”. Większość osób, które zachowało się niefajnie po takiej interwencji przestawało obrażać innych – wręcz przepraszało pisząc na przykład, że “nie zdawało sobie sprawy, że mogli kogoś skrzywdzić”. Taka prosta rzecz, a jak zmienia postrzeganie.

Tym zajmujemy się w Samurai – swoistą ironią jest fakt, że to sztuczna inteligencja przypomina ludziom, że po drugiej stronie także jest człowiek. To co także robimy lepiej niż moderatorzy to wyłapywanie osób, które swoje myśli samobójcze przelewają na wpisy w sieci.

Tak jak mówiłem wcześniej, to problem, z którym przyjdzie nam się dopiero zmierzyć. W Samurai mamy narzędzia, które są w stanie wyłapywać w czasie rzeczywistym takie przypadki – tu i teraz nie po tygodniu kiedy będzie już za późno.

To daje czas na reakcje i możliwość wsparcia takiej osoby, która go szuka w sieci. W świecie opanowanym pandemią miliony ludzi wołają o pomoc – sztuczna inteligencja Samurai pozwoli wyłapać z tłumu ten krzyk, ratując ludzkie życie.  

Tak, łatwo jest wpaść w pułapkę myślenia, że wymiar rzeczywisty i wirtualny to dwa odrębne, autonomiczne światy. Jednak wiemy, że nie istnieje żadna twarda granica między nimi. Wydarzenia z życia codziennego wpływają na świat online i vice versa

Według badań przeprowadzonych przez Hate Lab (2019) poziom mowy nienawiści w Internecie ma tendencję do gwałtownego wzrostu w ciągu 24-48 godzin po kontrowersyjnych lub tragicznych wydarzeniach, takich jak atak terrorystyczny, a następnie gwałtownie spada, chociaż jej średni może być podwyższony przez kilka miesięcy.

Gdy mowa nienawiści online osiągnie poziom krytyczny może przełożyć się na przemoc i przestępstwa z nienawiści (hate crime) offline. 

Badanie wykazały także silny, pozytywny związek między mową nienawiści na Twitterze dotyczącą rasy i religii a przestępstwami na tle rasowym i religijnym na ulicach Londynu.

Posty w mediach społecznościowych zawierające treści anty-uchodźcze i antymuzułmańskie korelują z przestępstwami z nienawiści na ulicach w Niemczech, Stanach Zjednoczonych i Wielkiej Brytanii.

Ankieta przeprowadzona przez brytyjskie Centrum Bezpiecznego Internetu (2016) wśród młodych ludzi w wieku 13–18 lat wykazała, że osoby spotykające się z nienawiścią w internecie przeżywają podwyższoną złość, smutek i szok, a większość (74%) stwierdziła, że zmusiło ich to do zmiany zachowań w Internecie.

Ofiary homofobii w Internecie w konsekwencji ataków online przejawiają pogorszenie samopoczucia psychicznego i fizycznego; pogłębia się ich izolacja społeczna; boją się o swoje bezpieczeństwo fizyczne; rozpadają się ich związki i relacje z rodziną i przyjaciółmi; można też zaobserwować zmiany w zachowaniu publicznym; zmiany w korzystaniu z mediów społecznościowych; oraz częstotliwości zwolnień lekarskich.

Trudne psychologiczne konsekwencje przeżywają także ofiary cyberbullyingu, obrażane i wyśmiewane za pomocą mediów społecznościowych nastolatki przeżywają realny lęk, obniżone poczucie własnej wartości, symptomy depresyjne, a nawet myśli samobójcze. 

Bieżąca sytuacja także dostarcza dowodów na to, że świat wirtualny ma ogromny wpływ na naszą rzeczywistość. Wzrost hejtu online w stosunku do osób pochodzących z Azji ma swoje odzwierciedlenie w rzeczywistych, fizycznych atakach. 

Myślę, że obecna sytuacja to świetna okazją by przekonać się na własnej skórze jak poziom dyskursu internetowego silnie przenika do życia codziennego i warto zrobić z tym porządek. 

Cześć!

Nazywam się Artur Kurasiński i jestem autorem tego bloga. Piszę o technologiach i ich wpływie na nasze życie.

Więcej o mnie




Zapisz się do mojego newslettera

Raz w tygodniu wyślę Ci wyselekcjowane informacje ze świata: technologii, biznesu i mediów. Jeśli interesujesz się startupami, dronami, drukiem 3D, EV, VR, AI, AR, video czy bitcoinami to witaj w domu.

Obiecuję - zero spamu tylko samo "mięcho"!

Wahasz się? Dostaniesz też za darmo w PDFie komiks "Strange Years" stworzony przez Michała "Śledzia" Śledzińskiego!




Dziękuje, nie chcę