Стремясь обеспечить, чтобы будущие модели искусственного интеллекта (ИИ) отражали человеческие ценности, OpenAI обнародовала свой план по интеграции в свои творения общественных принципов. Гигант искусственного интеллекта объявил о своем намерении создать команду коллективного согласования, состоящую из исследователей и инженеров. Задача команды будет заключаться в разработке структуры для получения и реализации отзывов общественности об услугах и продуктах OpenAI.
Компания выразила четкое намерение продолжать привлекать внешних консультантов и команды по грантам. Эти команды будут играть решающую роль во внедрении прототипов, которые затем будут определять поведение моделей. OpenAI активно набирает инженеров-исследователей, обладающих разнообразными техническими знаниями, чтобы способствовать созданию и успеху этого важного мандата.
Созданная в результате общественной инициативы OpenAI, которая была запущена в мае прошлого года, команда Collective Alignment представляет собой значительный шаг на пути внедрения демократического процесса в динамику нормотворчества систем искусственного интеллекта. Все это время OpenAI стремилась финансировать отдельных лиц, команды и даже организации, заинтересованные в разработке доказательств концепции, стремящихся разрешить двусмысленность в отношении ограждений и управления ИИ.
OpenAI в своем виртуальном сообщении сделал краткий обзор разнообразной работы получателей грантов, охватывающей интерфейсы видеочатов, платформы, которые облегчают краудсорсинговый аудит моделей ИИ, и стратегии, позволяющие согласовать поведение модели с конкретными убеждениями. Подробности каждого предложения, общие выводы и каждый использованный код были обнародованы ранее сегодня.
После этих событий OpenAI была непреклонна в отделении программы от своих коммерческих интересов, что вызвало неоднозначную реакцию. Некоторые критики выразили скептицизм по этому поводу, принимая во внимание критику со стороны генерального директора OpenAI Сэма Альтмана по поводу правил в ЕС и других регионах. Генеральный директор вместе с президентом OpenAI Грегом Брокманом и главным научным сотрудником Ильей Суцкевером постоянно высказывал мнение, что быстрое развитие технологии искусственного интеллекта превосходит способность существующих организаций эффективно ее регулировать. Таким образом, была предложена необходимость демократического, краудсорсингового строительства.
Конкуренты, в том числе Meta, обвинили OpenAI в попытке получить регулирующий контроль над индустрией искусственного интеллекта путем проведения кампании против открытых исследований и разработок в области искусственного интеллекта, но OpenAI отвергла эти обвинения. Они могут отметить эту новую программу и свою команду Коллективного Согласования как демонстрацию своей приверженности открытости.
Тем не менее, OpenAI в настоящее время сталкивается с пристальным вниманием со стороны политиков. Особенно в Великобритании продолжается расследование ее отношений с Microsoft, которая является ее близким партнером и инвестором. В рамках своей стратегии снижения рисков OpenAI стремилась ограничить свои нормативные риски в ЕС, касающиеся конфиденциальности данных. Для этого он использовал дочернюю компанию в Дублине, чтобы ограничить односторонние действия конкретных органов по надзору за конфиденциальностью в блоке.
Продолжается серия мероприятий по минимизации незаконного использования ее технологий для вмешательства в выборы. Сюда входит идентификация контента, созданного ИИ, и обнаружение манипулируемых изображений. В сотрудничестве с несколькими организациями OpenAI также работает над более заметной маркировкой своих изображений, созданных с помощью ИИ.
Стоит отметить, что такие компании, как AppMaster, известные своей надежной no-code платформой для разработки и репозиториями для консолидации информации с открытым исходным кодом, становятся видными игроками в технологической экосистеме. Учитывая масштабируемость, надежность и простоту использования AppMaster, они занимают свою нишу в создании серверных, веб- и мобильных приложений.