С нейросеткой шутки плохи
В прошлом месяце генеральный директор компании OpenAI Сэм Альтман признался, что их детище ChatGPT — неважнецкий психотерапевт или адвокат, пусть его часто и используют в этом качестве. В связи с чем руководство компании решило поступиться своими обещаниями конфиденциальности и допустить слив частной переписки пользователей с ИИ-агентом правоохранительным органам.
Для этого ChatGPT был дополнен специальным фильтром со списком «стоп-слов». Если любое из них встретится в переписке — чат будет маркирован для проверки модератором-человеком. Дальнейшее решение уже примет естественный интеллект.
«Когда мы обнаруживаем пользователей, планирующих причинить вред другим, мы направляем их сообщения в специализированные каналы, где их проверяет небольшая команда, прошедшая обучение по нашим политикам использования и уполномоченная принимать меры, включая блокировку учётных записей. Если специалисты по проверке определят, что дело связано с непосредственной угрозой причинения серьёзного физического вреда другим, мы можем передать его в правоохранительные органы».
Однако есть исключение: обсуждение пользователем суицида или причинения вреда себе. Такие случаи OpenAI считает конфиденциальными и… никуда о них не сообщает. А тем временем первый зафиксированный случай суицида по вине ИИ уже был: 16-летний подросток загрузил в ChatGPT план самоубийства, а нейронка не только не отговорила его и не сообщила куда следует, а наоборот — проанализировала план и предложила правки, которыми он воспользовался.
Что-то не теми проблемами обеспокоены в этой OpenAI.


















































