Исследование Кембриджского университета призывает разработчиков и политиков расставить приоритеты в подходах к разработке ИИ, которые в большей степени учитывают потребности детей.

Дети, скорее всего, будут относиться к чат-ботам «как к реалистичным, квазичеловеческим доверенным лицам», но когда технология не отвечает их уникальным потребностям и уязвимостям, это может повлиять на детей, показало исследование, опубликованное в журнале Learning, Media and Technology.

Это видно из тех случаев, когда Алекса поручала 10-летнему ребенку прикоснуться монетой к электрической вилке под напряжением, а Мой ИИ давал взрослым исследователям, изображающим из себя 13-летнюю девочку, советы о том, как потерять девственность 31-летней девочке. -годовалый.

В отдельном сообщении о взаимодействии с чат-ботом Bing, который был разработан с учетом требований подростков, ИИ стал агрессивным и начал газлайтинг пользователя.

«Дети, вероятно, являются наиболее игнорируемыми участниками ИИ», — сказала академик доктор Номиша Куриан из Кембриджского университета.

Она отметила, что, хотя создание человекоподобного чат-бота может принести много преимуществ, «ребенку очень сложно провести жесткую, рациональную границу между чем-то, что звучит по-человечески, и реальностью».

Куриан сказал, что дети «возможно, не способны сформировать надлежащую эмоциональную связь».

Кроме того, она утверждала, что это может «сбивать с толку и беспокоить детей, которые могут доверять чат-боту, как другу».

Чтобы сделать ИИ «невероятным союзником детей», его следует разрабатывать с учетом потребностей детей.

«Вопрос не в том, чтобы запретить ИИ, а в том, как сделать его безопасным», — сказала она.