КИШИНЕВ, 3 мар — Sputnik. Консультант компании Facebook доктор Дэн Рейденберг, глава организации SAVE (Suicide Awareness Voices of Education), рассказал в интервью Sputnik, как работает новая технология, с помощью которой социальная сеть намерена предотвращать самоубийства.
По словам Рейденберга, если друзья, родные и близкие человека замечают тревожные вещи во время трансляции на Facebook Live и видят, что человек намеревается причинить себе вред или угрожает, что сделает нечто подобное, они реагируют на это, оставляя определенные комментарии.
Такие комментарии и призван отследить искусственный интеллект — новый инструмент Facebook.
"Он задействует ресурсы для того, чтобы помочь стримеру, а также подскажет людям, которые смотрят трансляцию, что им следует сделать. На экране пользователя, угрожающего покончить с собой, появится сообщение, где будут указаны контакты ближайшего центра психологической поддержки или советы, как справиться со стрессом. То есть пользователю немедленно предоставят поддержку", — пояснил консультант.
Рейденберг отметил, что, когда человеку плохо, когда его мозг пытается справиться с психологическими проблемами, логика практически отключается и не подсказывает, что необходимо обратиться за помощью. И чем ближе человек к тому, чтобы совершить самоубийство, тем пассивнее работает мозг.
"Именно поэтому мы хотим, чтобы искусственный интеллект заранее улавливал тревожные сигналы в постах пользователей Facebook, а также при помощи других пользователей, которые просматривают страницы своих друзей", — уточнил доктор.
Программа в Facebook Live начала работать накануне. Рейденберг рассказал, что нечто подобное его компания делала на протяжении нескольких лет непосредственно для сети Facebook, анализируя посты и информацию на страницах пользователей.
"Если вы пишете, что вы подумываете совершить самоубийство, то люди уже имеют способ уведомить об этом компанию, и далее вам окажут помощь", — рассказал консультант.
При этом Рейденберг отметил, что случаи хулиганства, когда пользователь решил "подурачиться", написав, что сейчас убьет себя, происходят достаточно часто.
"Если же система нашла сообщение, которое ей покажется неправдоподобным или поддельным, в процессе анализа оно отсеется, — пояснил консультант. — Система оценивает уровень угрозы и сообщает об этом людям, которые, в свою очередь, соберут больше информации о пользователе с суицидальными наклонностями, проконсультируются с экспертами. Правоохранительные органы будут задействованы только в случае необратимой угрозы жизни человеку".
Система уже фактически спасла нескольких людей, которые писали и говорили о своих суицидальных намерениях, поделился Рейденберг.
Читайте, смотрите, слушайте Sputnik Молдова на родном языке — скачайте мобильное приложение для ваших смартфонов и планшетов.Скачать приложение для iPhone >>
Скачать приложение для Android >>