OpenAI создает команду для изучения “катастрофических” рисков искусственного интеллекта, включая ядерные угрозы

Новости о мире нейросетей и ИИ

OpenAI формирует отдельную команду, которая будет исследовать “катастрофические” риски искусственного интеллекта, включая ядерные угрозы. Команда будет мониторить, предсказывать и защищать от опасностей будущих систем искусственного интеллекта - от обмана людей до создания вредоносного кода. Она также собирает идеи сообщества для исследования рисков, предлагая приз в $25,000 за лучшие предложения и возможность участвовать в команде готовности. OpenAI подчеркивает необходимость понимания и инфраструктуры для обеспечения безопасности высокопроизводительных систем искусственного интеллекта.