Az Instagram Európában is bevezeti azt a technológiát, amellyel az önkárosító és öngyilkos tartalmakat kiszűrhetik.
Adam Mosseri, az Instagram vezetője a weboldalán található blogbejegyzésben részletezte az új, mesterséges intelligenciát alkalmazó rendszert. A tengerentúlon az algoritmus által károsnak nyilvánított hozzászólások egy emberi moderátorhoz érkeznek be, akik eldöntik, hogy tesznek-e további lépéseket – ideértve azt, hogy a posztot közzé tevő felhasználót adott esetben különböző segítő szervekhez irányítják. Európában egyelőre még csak az algoritmust fogják használni, emberi moderálásra nem kerül majd sor.
A 14 éves Molly Russell öngyilkossága óta erős kételyek merültek fel a közösségi média fiatal és kiszolgáltatott emberekre gyakorolt hatásaival kapcsolatban. Molly apja, Ian korábban azt mondta, hogy a közösségi média tartalmai is hozzájárultak a lánya öngyilkosságához.
Közel sem ez volt azonban az első eset, ahol a közösségi média felelőssége megkérdőjelezhetővé vált: Malajziában egy 16 éves lány végzett magával, miután az Instagramon közzétett egy szavazást arról, hogy meghaljon vagy sem, és a válaszadók 69 százaléka az előbbire voksolt. Ebben az esetben nem csak a közösségi média, de azok felelőssége is felmerült, akik a lány halála mellett szavaztak.

Az Európában is bevezetett Instagram újfajta szűrőjének célja, hogy kiválogassa azokat a posztokat, amelyek önkárosító vagy öngyilkos tartalommal bírnak. Az ehhez hasonló tartalmak bizonyos formában blokkolásra kerülnek.
Figyelem! Ha Ön vagy valaki a környezetében krízishelyzetben van, hívja mobilról is a 116-123 ingyenes, lelkielsősegély-számot!
[sc name=”facebook” ]