Naver заявила, что ее система безопасности искусственного интеллекта (ASF) определяет потенциальные риски, связанные с искусственным интеллектом, как серьезное лишение человеческого потенциала и неправильное использование технологии.

В рамках этой программы Naver будет регулярно оценивать угрозу своих систем искусственного интеллекта, причем оценки обновляются каждые три месяца для технологий искусственного интеллекта, известных как «передовой искусственный интеллект».

Компания проведет дополнительную оценку, когда возможности системы искусственного интеллекта увеличатся более чем в шесть раз за короткий период времени, сообщает информационное агентство Yonhap.

Компания также применит свою матрицу оценки рисков ИИ, чтобы изучить возможность неправильного использования технологии, учитывая назначение и уровень риска системы перед ее распространением.

Naver заявил, что продолжит совершенствовать свой ASF, чтобы отразить большее культурное разнообразие, чтобы помочь правительствам и компаниям внутри страны и за рубежом развивать свой собственный суверенный ИИ.

«Никогда не будет продолжать разрабатывать суверенный ИИ для глобального рынка и продвигать свой ASF, чтобы внести вклад в создание устойчивой экосистемы ИИ, в которой можно безопасно использовать множество различных моделей ИИ, отражающих культуру и ценности разных регионов. Могут использоваться органично и могут совместно использоваться. -существуют», — сказал генеральный директор Чхве Су Ён.