
В своем новом эссе, опубликованном в Financial Times, Дарио Амодеи, один из ведущих специалистов в области искусственного интеллекта, поднимает тревожные вопросы о потенциальных угрозах, связанных с развитием мощных ИИ-систем. Амодеи, который активно участвует в создании передовых технологий, говорит о том, что человечество стоит на пороге получения почти невообразимой власти, однако неясно, готовы ли наши социальные, политические и технологические структуры безопасно распорядиться ею.
Он акцентирует внимание на том, что скорость прогресса в области ИИ значительно опережает шаги, предпринимаемые для контроля и обеспечения безопасности.
Амонеи делится своими опасениями о рисках, которые могут возникнуть из-за неконтролируемого развития так называемого «мощного искусственного интеллекта». По его прогнозам, такие системы в ближайшие годы станут значительно более совершенными, чем любые лауреаты Нобелевской премии или ведущие государственные деятели.
Он упоминает о возможных последствиях, таких как массовая потеря рабочих мест и увеличение угрозы биотерроризма. По мнению Амодеи, искусственный интеллект может предоставить отдельным людям знания и навыки, которые ранее были доступны лишь узкому кругу специалистов, что в свою очередь может облегчить создание биологического оружия с катастрофическими последствиями.
«Человек, который ранее не мог создать ядерное оружие или выпустить чуму, теперь может стать экспертом в вирусологии», — подчеркивает он.
Кроме того, Амодеи обращает внимание на риск того, что ИИ может выйти из-под контроля, что может привести к усилению авторитарных режимов и созданию «глобальной тоталитарной диктатуры».
В заключение он призывает к срочным действиям со стороны правительств, научного сообщества и бизнеса для разработки эффективных механизмов регулирования и обеспечения безопасности, чтобы минимизировать угрозы, связанные с появлением мощного ИИ.
Дарио Амодеи
Является одним из самых влиятельных специалистов в мировой индустрии искусственного интеллекта.
Сооснователь и генеральный директор компании Anthropic.
По образованию физик и специалист в машинном обучении, он ранее работал в OpenAI, где занимал руководящие должности и участвовал в разработке крупных языковых моделей.
Амадеи известен как ярый сторонник строгих мер безопасности и контроля в развитии ИИ. Его разногласия с руководством OpenAI по вопросам управления рисками стали одной из причин его ухода из компании.
Anthropic
Anthropic — американская компания, основанная в 2021 году бывшими сотрудниками OpenAI. Штаб-квартира расположена в Сан-Франциско.
Компания сосредоточена на разработке безопасных и управляемых ИИ-систем, а ее ключевой продукт — языковые модели Claude, которые составляют конкуренцию ChatGPT и другим крупным ИИ-моделям.
Anthropic акцентирует внимание на «конституционном ИИ», обучая модели следовать заранее установленным этическим нормам для снижения рисков опасного поведения.
Влияние и поддержка
Anthropic считается одним из лидеров в сфере ИИ и привлекла миллиарды долларов инвестиций.
Среди крупнейших партнеров и инвесторов — Amazon и Google.
Поэтому мнения Дарио Амодеи о рисках, связанных с ИИ, воспринимаются с большой серьезностью: он не просто критик, а эксперт, создающий одни из самых мощных ИИ-систем в мире.