Большой брат: Facebook следит за суицидальными настроениями пользователей
Valery Brozhinsky
В социальной сети Facebook рассказали, что теперь во всем мире будет работать программа, которая с помощью искусственного интеллекта будет определять, нет ли у пользователя суицидальных настроений. Ранее такая программа уже использовалась (в тестовом режиме с марта 2017 года) – но исключительно в США, сейчас же она будет действовать по всему миру, исключая страны Евросоюза, где законы об обработке персональных данных запрещают подобные технологии.
Искусственный интеллект будет анализировать посты и прямые эфиры пользователей, выискивая в них схемы, свойственные людям, которые хотели бы совершить суицид. Кроме того, во внимание будут приниматься комментарии, например, такие – «С тобой все в порядке?». Если системе «покажется», что у кого-то из пользователей есть мысли о суициде, она передаст его данные в особую комиссию, составленную из специально нанятых людей, и уже эти люди будут принимать решения о необходимости вмешательства. Facebook будет совершенствовать технологии, чтобы комиссия не была завалена ложноположительными сигналами. Если члены комиссии решат, что с человеком, информация о котором им пришла, действительно не все в порядке, они свяжутся с первыми комментаторами его поста и попросят их оказать своему другу помощь.
Ранее технология работала несколько иначе – вместо искусственного интеллекта Facebook полагался на сигналы от пользователей. Сейчас обе программы будут действовать одновременно, но искусственный интеллект, скорее всего, будет эффективнее – он выявит суицидальные мысли еще до того, как публикацию кто-либо заметит, а при предотвращении суицида даже секунды могут быть крайне важны.