Лидеры ИИ создадут контролирующий орган для обеспечения безопасности технологии
В 2023 году генеративный искусственный интеллект (ИИ) стал модным словечком для технологической индустрии. Также существует много опасений по поводу того, как генеративный ИИ может выйти из-под контроля.
Сегодня (26 июля) четыре ведущие компании, занимающиеся технологиями ИИ, объединились для создания форума Frontier Model Forum. Цель этой группы – обеспечить «безопасное и ответственное развитие» генеративного ИИ, особенно для передовых моделей ИИ, сообщает агентство Reuters.
Пограничные модели ИИ описываются этой группой как «крупномасштабные модели машинного обучения, которые превосходят возможности, присутствующие в настоящее время в самых передовых существующих моделях, и могут выполнять широкий спектр задач».
Членами-основателями группы являются Microsoft, OpenAI, Google и Anthropic.
Новая группа начнёт с создания Консультативного совета, чтобы он мог начать вырабатывать рекомендации по стандартам безопасности для передовых моделей ИИ, а также работать над исследованиями безопасности ИИ и делиться информацией об этих усилиях с другими компаниями и правительствами.
Форум Frontier Model также открыт для добавления в эту группу новых компаний, если они также работают над передовыми моделями ИИ и «демонстрируют твёрдую приверженность безопасности передовых моделей, в том числе с помощью технических и институциональных подходов».