dlaczego my

Kategorie wpisów

Archiwum

Problemu mowy nienawiści nie da się dziś zamieść pod dywan. Skala przemocy, jaka dotknęła społeczeństwa europejskie, zmusiła najważniejszych decydentów – Komisję Europejską i administratorów portali społecznościowych – do wypracowania standardów działań. Jak wygląda ich realizacja?

W debacie o mowie nienawiści i wolności słowa jeden argument przekonuje nas o tym, że nie wszystkie treści należy traktować jako neutralne. Jak wykazał raport przygotowany przez Centrum Badań nad Uprzedzeniami, ekspozycja mowy nienawiści sprzyja umacnianiu uprzedzeń i zwiększa poparcie dla rozwiązań siłowych oraz partii o charakterze autorytarno-nacjonalistycznym. Zmniejsza za to wrażliwość na przemoc, o czym przekonaliśmy się niedawno, kiedy w Wenecji tonący uchodźca nie tylko nie uzyskał pomocy, ale spotkał się z lawiną wyzwisk ze strony turystów.

Internet to przestrzeń, w której najczęściej spotykamy się z wszelkimi rodzajami mowy nienawiści. Odpowiedzialność za jej usuwanie powinna spoczywać na administratorach, zakazujących tego typu treści. W praktyce ciężar wyszukiwania materiałów głoszących nienawiść przenoszony jest na użytkowników. Widząc skalę problemu, internauci zaczęli organizować kampanie zgłaszania określonych treści. Więcej zgłoszeń miało zapewniać poważniejsze potraktowanie sprawy. Nie zawsze to działało. Standardy rozpatrywania zgłoszeń pozostawały zagadką. Jednocześnie coraz silniejsze było poczucie, że należy uczynić ten proces bardziej skutecznym.

Wzorem stały się tu Niemcy, znane ze stanowczej podstawy wobec ekstremizmów. Facebook w Niemczech ma obowiązek usuwania nielegalnych treści w ciągu 24 godzin od otrzymania zgłoszenia. To jednak efekt batalii sądowej.

W 2016 r. podpisano w końcu porozumienie między Komisją Europejską i administratorami treści, w którym strony zobowiązały się do wdrażania proponowanych rozwiązań bez ponoszenia konsekwencji za ich niedotrzymanie.

W myśl zobowiązań portale miały jasno zdefiniować, że podżeganie do przemocy i nienawiści jest nielegalne i dążyć do usuwania tego typu treści w ciągu doby. Portale miały również mówić, jakie treści są niepożądane, aby uniknąć kontrowersji związanych z niejasnymi kryteriami. Przy usuwaniu treści miały kierować się standardami Dyrektywy o przeciwdziałaniu pewnym formom nienawiści z 2008 r. (poświęconej głównie ksenofobii) oraz standardom prawa krajowego.

Komunikowaniu standardów obowiązujących na danych portalach oraz rozpatrywaniu wątpliwości miała służyć sieć lokalnych punktów, których pracownicy mieli być doskonale zaznajomieni z podstawowymi problemami zgłaszanymi przez użytkowników z danego państwa. W wypracowaniu reguł dotyczących kwalifikowania treści jako mowy nienawiści miały pomóc też konsultacje z organizacjami pozarządowymi i z ekspertami oceniającymi przykładowe wypowiedzi i na tej podstawie tworzącymi wytyczne wskazujące na prawdopodobieństwo, że dany komentarz nawołuje do nienawiści. Same firmy miały poprawiać swoje standardy poprzez współpracę w zakresie dobrych praktyk.

Wyniki badań nad efektami porozumienia wyglądają jednak dramatycznie. Umowa między Komisją a portalami nie przyniosła zakładanych efektów.

W zgłaszaniu treści najaktywniejsi są użytkownicy Facebooka, następnie Twittera i YouTube’a. Problem ten wydaje się nie występować na portalach zarządzanych przez Microsoft (najbardziej popularny to LinkedIn, portal służący do wyszukiwania kontaktów między przedstawicielami określonych branż). Najwięcej zgłoszeń dotyczyło (w kolejności) antysemityzmu, nienawiści wobec muzułmanów, nienawiści na tle narodowościowym, rasowym i etnicznym.

Portale nadały części użytkownikom status „zaufanego zgłaszającego”, chcąc nadać właściwą rangę powiadomieniom, które na pewno nie będą spamem (tj. nawet jeśli ostatecznie będą uznane za nieuzasadnione, nie będą to przypadki zgłaszania treści ewidentnie niełamiących regulaminu) – spośród badanych przypadków więcej było jednak zgłoszeń ze strony zwykłych użytkowników, co oczywiście cieszy – aktywność każdego internauty, nie tylko grupy najmocniej zaangażowanej w temat, jest w tym kontekście kluczowa.

Decyzja o usunięciu danej treści zapadła w 28 proc. przypadków. Najczęściej – 48,5 proc. – usuwał YouTube, Facebook – 28 proc., a Twitter jedynie 19 proc. Z systemu „zaufanych osób wysyłających zgłoszenia” najczęściej korzystał YouTube – w tym przypadku różnica między odsetkiem usuniętych treści między tą kategorią użytkowników a pozostałymi wynosiła aż 39 punktów procentowych, niewiele mniejsza różnica występowała na Twitterze, gdzie w przypadku zgłoszeń zwykłych użytkowników usunięto jedynie 5 proc. zgłoszonych treści.

Nadal nie zostały jednak stworzone punkty konsultacyjne dla mieszkańców poszczególnych krajów.

Jesienią ubiegłego roku pojawiło się też zagadnienie konieczności komunikowania się z użytkownikami portali po tym, kiedy szereg organizacji poskarżyło się na nieuzasadnione usuwanie materiałów. Kryteria usunięć określone są w sposób ogólny, nie wiadomo też, jaki jest schemat rozpatrywania zgłoszeń. W efekcie zwykły użytkownik nie wie, czy jest sens zgłaszania jakiegoś komentarza.

Wskazane jest przenoszenie tego rodzaju rozwiązań na grunt krajowy. Warto włączać w ten proces, w zależności od ich możliwości, portale ogólnokrajowe i lokalne – choćby w zakresie edukowania administratorów i promowania dobrych praktyk. Potrzebna jest do tego inicjatywa rządów państwowych. Przykład niemiecki pokazuje, że wymuszenie szybkiego usuwania niepożądanych treści jest możliwe. Od nas zależy, czy z tej możliwości skorzystamy.

 

Autor: Joanna Grabarczyk

Źródło: http://kulturaliberalna.pl/2017/03/06/grabarczyk-portale-internet-hejt-stop/




szota.biz  ★