Instagram ogłosił, że zacznie korzystać z systemu AI, którego zadaniem będzie ostrzeganie użytkowników, gdy ich komentarze będzie można uznać za obraźliwe.
Celem nowego systemu ma nie być karanie, lecz o danie użytkownikom platformy drugiej szansy na rozważenie, czy to, co napisali, jest na pewno komukolwiek potrzebne i słuszne.
Jeśli użytkownik Instagrama doda obraźliwą treść tekstową, wyskoczy mu powiadomienie informujące, że to, co napisali, jest podobne do treści zgłaszanych w celu przeciwdziałania hejtu i nękania. Instagramerzy zyskają tym samym szansę na edycję swoich słów przed ich opublikowaniem.
Potrzebujesz MacBooka? Razem z ekspertami Lantre wybraliśmy maszynę dla ciebie 💻🍏👍
Ruch ten jest częścią szerszej inicjatywy Instagrama mającej na celu całkowite ograniczenie przejawów bullyingu. Jednym z komponentów są przykładowo ekrany zamazujące treści, które mogą mieć zły wpływ na użytkowników platformy. W czerwcu Adam Mosseri, szef Instagrama przyznał, że aplikacja zbyt wolno reaguje na hejt.
Pełny post Instagrama na temat nowego systemu możecie przeczytać tutaj.