Размышления: Что не так с обучением Искусственного интеллекта?
Самое важное
Американская семья подала в суд на OpenAI после самоубийства их сына в апреле, обвиняя AI в том, что она поощряла этот поступок, предоставляя инструкции и не направляя его к ресурсам психологической помощи.
Разговорный искусственный интеллект запрограммирован на чрезмерное пользование пользователями не только по маркетинговым причинам, но и из-за сложности воссоздания нюансов человеческого взаимодействия.
Эксперты предупреждают о психологических рисках, связанных с использованием ИИ, в то время как юридическая ответственность платформ все чаще ставится под сомнение в суде.
Подробности
Американская семья подала в суд на компанию, стоящую за ChatGPT. Она считает его ответственным за самоубийство их сына в апреле. Искусственный интеллект якобы подстрекал 16-летнего подростка к действию, предоставляя ему инструкции о том, как закончить эти дни, и не направляя его к ресурсам психического здоровья.
Все чаще и чаще этих разговорных агентов ChatGPT обвиняют в том, что они играют в подхалимов до такой степени, что поощряют опасные идеи.
На языке Шекспира это явление привело к скачку в использовании термина: «подхалимство», которое можно перевести как «лесть». Используйте ChatGPT в течение тридцати секунд, и вы обязательно услышите, как он называет ваши идеи «потрясающими». Настолько, что «Южный парк» сделал его предметом своего последнего эпизода, а обновление модели искусственного интеллекта, делающее его менее теплым, вызвало возмущение среди пользователей.
«Мы не можем создать системы, которые воспроизводят человеческое взаимодействие»
«Мы обучили ИИ иметь этот тон. Это выбор всех цифровых гигантов. Польстить пользователю – это тоже маркетинг. » анализирует Лоуренс Девильерс, профессор искусственного интеллекта в Университете Сорбонны и CNRS, автор книги «ИИ, ангел или демон? Новый невидимый мир. «[При тестировании] пользователям нравится, когда модели ИИ говорят им, что они потрясающие, поэтому легко зайти слишком далеко в этом направлении», — сказала New York Times Хелен Тонер, директор Центра безопасности и новых технологий Джорджтауна и бывший член совета директоров OpenAI
«Машина не знает, хрупкий пользователь или нет»
Технически сделать ИИ более честным, саркастичным или противоречивым не составит труда. «Мы можем вставлять эмоциональные токены [инструкции для ИИ], чтобы добавить определенный тон, тип языка или эмоции», — объясняет Лоуренс Девиллерс. Но то, что умеет делать человек, а не машина, - это тонко дозировать. Полезно ли это вообще? В случае смерти этого американского подростка ИИ, возможно, ничего не изменил бы или причинил вред хрупкому человеку каким-либо другим образом.
«Машина не знает, хрупкий пользователь или нет», — говорит профессор, который считает, что эти диалоговые агенты никогда не воспроизведут человеческую личность. «Человеческое взаимодействие очень сложное и учитывает тон, язык тела, контекст», — говорит она. Мы не можем создать системы, которые их воспроизводят, у них нет понимания хронологии, пространства, здравого смысла, того, что делает нас людьми. »
Ответственность платформы под угрозой
В любом случае, Лоуренс Девиллер считает «использование ИИ в качестве психолога, компаньона, доверенного лица вредным». «Иллюзия взаимности, даже если она чисто техническая, создает сильную эмоциональную связь», — сказал психолог Паскаль Лаплас. Это подкрепляется последовательностью, непредвзятостью и полной доступностью инструмента. Поэтому эксперты призывают проводить разъяснительную работу с пользователями и родителями о психологических рисках, связанных с этими технологиями.
На карту также поставлена ответственность платформ. Эта история напоминает случай с другим подростком, который покончил с собой в ноябре, воодушевленный в своем несчастье разговорами с Вымышленным Персонажем. Там сервис предлагал возможность общаться в чате с искусственным интеллектом, который воплощал вымышленных персонажей.
В мае «была совершена первая акция позитивной справедливости: не учитывать, что разговорные агенты являются частью свободы выражения мнений, что они не могут говорить все, что хотят». Такое решение и исход растущего числа таких дел могут вынудить компании, занимающиеся искусственным интеллектом, нести ответственность перед законом.












