Мини-чат
Или войти с помощью
6
Pepper25
На uCrazy 18 лет 3 месяца
Интересное

Размышления: Что не так с обучением Искусственного интеллекта?

Самое важное

Американская семья подала в суд на OpenAI после самоубийства их сына в апреле, обвиняя AI в том, что она поощряла этот поступок, предоставляя инструкции и не направляя его к ресурсам психологической помощи.


Разговорный искусственный интеллект запрограммирован на чрезмерное пользование пользователями не только по маркетинговым причинам, но и из-за сложности воссоздания нюансов человеческого взаимодействия.

Эксперты предупреждают о психологических рисках, связанных с использованием ИИ, в то время как юридическая ответственность платформ все чаще ставится под сомнение в суде.

Подробности

Американская семья подала в суд на компанию, стоящую за ChatGPT. Она считает его ответственным за самоубийство их сына в апреле. Искусственный интеллект якобы подстрекал 16-летнего подростка к действию, предоставляя ему инструкции о том, как закончить эти дни, и не направляя его к ресурсам психического здоровья.

Все чаще и чаще этих разговорных агентов ChatGPT обвиняют в том, что они играют в подхалимов до такой степени, что поощряют опасные идеи.

На языке Шекспира это явление привело к скачку в использовании термина: «подхалимство», которое можно перевести как «лесть». Используйте ChatGPT в течение тридцати секунд, и вы обязательно услышите, как он называет ваши идеи «потрясающими». Настолько, что «Южный парк» сделал его предметом своего последнего эпизода, а обновление модели искусственного интеллекта, делающее его менее теплым, вызвало возмущение среди пользователей.

«Мы не можем создать системы, которые воспроизводят человеческое взаимодействие»

«Мы обучили ИИ иметь этот тон. Это выбор всех цифровых гигантов. Польстить пользователю – это тоже маркетинг. » анализирует Лоуренс Девильерс, профессор искусственного интеллекта в Университете Сорбонны и CNRS, автор книги «ИИ, ангел или демон? Новый невидимый мир. «[При тестировании] пользователям нравится, когда модели ИИ говорят им, что они потрясающие, поэтому легко зайти слишком далеко в этом направлении», — сказала New York Times Хелен Тонер, директор Центра безопасности и новых технологий Джорджтауна и бывший член совета директоров OpenAI


«Машина не знает, хрупкий пользователь или нет»

Технически сделать ИИ более честным, саркастичным или противоречивым не составит труда. «Мы можем вставлять эмоциональные токены [инструкции для ИИ], чтобы добавить определенный тон, тип языка или эмоции», — объясняет Лоуренс Девиллерс. Но то, что умеет делать человек, а не машина, - это тонко дозировать. Полезно ли это вообще? В случае смерти этого американского подростка ИИ, возможно, ничего не изменил бы или причинил вред хрупкому человеку каким-либо другим образом.

«Машина не знает, хрупкий пользователь или нет», — говорит профессор, который считает, что эти диалоговые агенты никогда не воспроизведут человеческую личность. «Человеческое взаимодействие очень сложное и учитывает тон, язык тела, контекст», — говорит она. Мы не можем создать системы, которые их воспроизводят, у них нет понимания хронологии, пространства, здравого смысла, того, что делает нас людьми. » 


Ответственность платформы под угрозой

В любом случае, Лоуренс Девиллер считает «использование ИИ в качестве психолога, компаньона, доверенного лица вредным». «Иллюзия взаимности, даже если она чисто техническая, создает сильную эмоциональную связь», — сказал психолог Паскаль Лаплас. Это подкрепляется последовательностью, непредвзятостью и полной доступностью инструмента. Поэтому эксперты призывают проводить разъяснительную работу с пользователями и родителями о психологических рисках, связанных с этими технологиями.

На карту также поставлена ответственность платформ. Эта история напоминает случай с другим подростком, который покончил с собой в ноябре, воодушевленный в своем несчастье разговорами с Вымышленным Персонажем. Там сервис предлагал возможность общаться в чате с искусственным интеллектом, который воплощал вымышленных персонажей.

В мае «была совершена первая акция позитивной справедливости: не учитывать, что разговорные агенты являются частью свободы выражения мнений, что они не могут говорить все, что хотят». Такое решение и исход растущего числа таких дел могут вынудить компании, занимающиеся искусственным интеллектом, нести ответственность перед законом.

@uCrazy_org
Комментарии6
  1. ZASLUGA
    На uCrazy 12 лет 10 месяцев
    Сами проепали своего ребёнка , а виноват оказался ИИ .
    Удобная (как таким кажется) позиция . Снять с себя таким образом ответственность , и переложить её на других . А признать свои ошибки - здесь необходимо мужество . Которого у такого ссыкла - разумеется нет .
  2. Tony_m
    На uCrazy 13 лет 10 месяцев
    ИИ это система поддержки принятия решений и еще и поисковик и еще какие виды ИС. Если её изначально так позиционировать, а не как настоящий интеллект. И информировать через дисклеймер при попытке использовать. Можно избежать подобных проблем. А так они должны нести ответственность за пропаганду и рекламу этих систем как нечто большего чем мощная но бездушная информационная система. Мы же не требуем у поисковика какой то морали или правильности. А тут уже возлагаем. Это все равно что автомобиль считать частично живым. Это все о многих проблемах говорит в головах у людей. Одна из них - антропоморфный перенос. Можно так же рекомендации принять для работы с такими ИС, что мол не забывайте это машина, ответственность за действия принятые таким советчиком полностью на вас, эксперт вы. Все носит максимум рекомендательный характер, а не руководство к действию. Говорить об этом везде. Мы же применяем технику безопасности на дорогах или в быту.
    1. VrotMneNogi
      На uCrazy 2 года 2 месяца
      @Tony_m, если говорить честно, то можно потерять сверхприбыли. А цели развития ИИ там уже определены. В триллионах долларов, если не ошибаюсь.
  3. VrotMneNogi
    На uCrazy 2 года 2 месяца
    ну ща начнется. Будет как с инструкциями на упаковках, типа не стирайте кота в стиральной машинке.
  4. Водаврот
    На uCrazy 19 лет 8 месяцев
    Насколько тупорылым надо быть, чтобы прислушиваться к советам ИИ
    1. Aleksandr_Reich
      На uCrazy 8 месяцев 5 дней
      @Водаврот, тут скорее насколько тупым надо быть, чтобы самовыпилиться. Таких идиотов/идиоток даже не жалко.

{{PM_data.author}}

{{alertHeader}}