Незадолго до увольнения Сэма Альтмана исследователи OpenAI предупредили совет директоров о большом открытии в области ИИ, которое «может угрожать человечеству». Об этом сообщает Reuters со ссылкой на анонимные источники. 

Собеседники издания назвали письмо сотрудников одним из пунктов в длинном списке претензий правления, приведших к снятию Альтмана с должности CEO. В частности, руководство опасалось коммерциализации технологии до определения ее рисков.

Во внутреннем сообщении совет директоров OpenAI признал существование так называемого проекта Q* (произносится как Q-Star). По мнению многих сотрудников, разработка может стать прорывом для создания общего искусственного интеллекта (AGI). 

OpenAI и сам Альтман определяют AGI как автономные системы, которые превосходят людей в большинстве рутинных и вычислительных процессов.

Q* пока умеет решать только простые математические задачи для начальных классов, используя при этом огромное количество ресурсов. Однако в компании уверены, что технология обладает большими перспективами.

По мнению экспертов OpenAI, математика — передовой рубеж развития генеративного ИИ. В настоящее время нейросети способны «предугадывать» ответ на поставленный вопрос и пробовать его подобрать с некоторой вероятностью ошибки.

Математические задачи требуют точного ответа, поэтому развитие в данном направлении подразумевает улучшение способностей искусственного интеллекта к рассуждению.

В отличие от калькулятора, который выполняет ограниченное количество операций, AGI может обобщать, учиться и понимать, считают в OpenAI.

По словам одного из источников, в компании также существовала специальная группа, сформированная из команд Code Gen и Math Gen. Она якобы изучала оптимизацию и возможности «сознания» ИИ-моделей.

Напомним, спустя четыре дня после увольнения Альтмана OpenAI объявила о его возвращении на должность CEO и смене состава совета директоров. 

Будь в курсе! Подписывайся на Криптовалюта.Tech в Telegram.