Каплан, который ранее работал в ЦЕРНе и Университете Джонса Хопкинса, а затем стал соучредителем Anthropic, подчеркивает, что рекурсивные системы, способные к самообучению, представляют собой серьезные риски. Если искусственный интеллект станет умнее человека и начнет взаимодействовать с другими ИИ для ускоренного прогресса, это может привести к непредсказуемым изменениям в соотношении сил между людьми и машинами. С такими технологии будет сложнее управлять, и они могут быть использованы во вред.
Каплан, учёный с образованием в Стэнфорде и Гарварде, рассматривает важность принятия решения о дальнейших шагах в развитии ИИ в период с 2027 по 2030 годы. Он также прогнозирует, что в течение ближайших 2-3 лет ИИ сможет выполнять большую часть офисной работы, а его сын, которому сейчас шесть лет, вероятно, никогда не сможет превзойти ИИ в таких задачах, как написание эссе или сдача экзаменов по математике.
Каплан утверждает, что в настоящее время индустрия в целом справляется с «выравниванием» ИИ в соответствии с человеческими этическими нормами. Anthropic нацелена на разработку «конституционного ИИ», при котором поведение системы регулируется набором принципов, основанных на международных правовых и этических документах. Тем не менее, ученый выражает сомнения относительно возможности сохранения контроля после достижения уровня интеллекта человека.
«Можно представить, что кто-то решит, что этот ИИ должен служить ему. Борьба с такими попытками захвата власти столь же важна, как и исправление ошибок в самих моделях», — добавляет Каплан.
Среди положительных аспектов Каплан выделяет ускорение биомедицинских исследований, улучшение здравоохранения и кибербезопасности, повышение производительности и создание возможностей для процветания.
Он подчеркивает необходимость вовлечения общества в обсуждение развития ИИ, включая участие международных организаций в контроле за темпами и направлениями автономного самосовершенствования, чтобы минимизировать риски и предотвратить злоупотребления. Политики также должны быть осведомлены о текущих тенденциях и перспективах.
Anthropic работает над созданием ИИ-продуктов, в том числе чат-бота Claude, который позволяет разрабатывать автономные ИИ-агенты. Компания позиционирует себя как сторонник безопасного и регулируемого развития ИИ.