Конкуренттер биригишти: OpenAI жана Google Anthropicти Пентагондон куткарууда

Анна Федорова Өзгөчө
VK X OK WhatsApp Telegram
Маалыматка ылайык, OpenAI жана Google кызматкерлери расмий түрдө Anthropicти колдошту, процесс катышуучулары тарабынан өз позицияларын көрсөтүү үчүн сотко берилген документке кол коюшту. Кол койгондордун арасында Джефф Дин да бар, бул окуянын маанилүүлүгүн баса белгилейт: конфликт эки компанияны гана эмес, ИИ (жасалма интеллект) тармагынын кеңири коомчулугун да камтый баштады.

Исктин себеби АКШнын Коргоо министрлигинин Anthropicти «жеткирүү чынжырындагы коркунуч факторы» деп таануу чечими болду. Бул статус адатта бийлик тарабынан улуттук коопсуздукка коркунуч катары эсептелген чет өлкөлүк жеткирүүчүлөргө колдонулат, мисалы, Huawei жана ZTE учурларында. Эми бул статус америкалык ИИ технологияларын иштеп чыгуучуга берилди, бул көптөгөн суроолорду жаратат, анткени бийликтен эч кандай коомдук түшүндүрмөлөр келген жок. Алар болгону сырдуу чалгын маалыматтарына шилтеме беришет. Кызык, бул окуядан кийин Пентагон OpenAI менен келишимге кол койду.

Мурдатан кол койгондор билдиришкендей, маселе бир компаниянын чегинен чыгып жатат. Эгер өкмөт оюнчуну өз экосистемасынан так негиздерсиз чыгарса, бул бүт рынокко коркунуч туудурат. Бүгүн бул Anthropic, эртең мындай механизм ар кандай компанияга каршы колдонулушу мүмкүн, ал эми бул Вашингтондун ИИ сектору менен болгон келечектеги өз ара аракеттенүүсү тууралуу суроолорду жаратат.

Сотко кайрылуу Anthropicти колдоо үчүн берилди. Мындай документтер бул конфликттин талапкер жана жоопкер үчүн гана эмес, маанилүү экенин көрсөтүү үчүн кызмат кылат. Аны OpenAI жана Googleдын 40ка жакын кызматкери, анын ичинде Джефф Дин кол койду. Бул иштин жергиликтүү юридикалык талаш-тартыш менен чектелбестигин, америкалык ИИ рыногундагы көптөгөн катышуучулардын кызыкчылыктарын камтыганын баса белгилейт.

Пентагондун чечиминин себеби Anthropicтын массалык байкоо же автономдуу курал системалары үчүн өз технологиясын берүүдөн баш тартканы болду. Мындай статусунун кесепеттери федералдык келишимдер, подрядчылар менен мамилелер жана компаниянын рыноктогу кабыл алуусуна олуттуу таасир этиши мүмкүн. Эгер механизм басым көрсөтүү үчүн колдонулса, бул туруктуулукту жаратат: өкмөт менен сүйлөшүүлөрдө кандайдыр бир катуу позиция бизнеске системалык сокку урууга алып келиши мүмкүн.

Пентагон өз чечиминин себептерин ачыкка чыгарган жок. Бийлик сырдуу чалгын маалыматтарына шилтеме берет, ал эми Anthropic бул чечим административдик процедураларга каршы келип, ачык эмес кабыл алынганын билдирет. Ачык эместик олуттуу кооптонууларды жаратат, анткени мазмуну ачыкка чыгарылбаган айыптоолорго каршы коргонуу кыйын.

OpenAI жана Google кызматкерлери бул кырдаал Anthropicтын гана эмес, мамлекеттин ИИ сектору менен болгон өз ара аракеттенүүсүнүн бүтүн тартибин өзгөртүшү мүмкүн экенин эскертет. Эгер мындай чаралар нормага айланса, бул АКШнын илимий жана өнөр жай тармактарындагы атаандаштыкка сокку уруусу мүмкүн. Эгер ири оюнчу федералдык экосистемадан түшүндүрмөсүз чыгарылса, рынок болжолдонбос болуп калат.

Ошондой эле кол койгондор мындай аракеттер ички талкууну муздатышы мүмкүн экенин билдиришет, анткени ИИни кантип өнүктүрүү жана кайсы чектен өткөндү аныктоо боюнча талкууларды кыйындатат. Эгер компаниялар талаштуу технологияларды колдонуу боюнча баш тартуу оор кесепеттерге алып келиши мүмкүн экенин билишсе, бул иштеп чыгуучулардын арасында ачыктык жана сын деңгээлин төмөндөтүшү мүмкүн.

Anthropicты атаандаш компаниялардын колдоосу анын коопсуз ИИ тармагындагы алдыңкы оюнчулардын бири катары эсептелгенине байланыштуу. Атап айтканда, constitutional AI тармагындагы иштеп чыгуулары жөнүндө сөз болуп жатат, бул жерде моделдер алдын ала белгиленген принциптерге ылайык жөндөлөт.

Ошентип, сот процесси Вашингтон менен жасалма интеллект рыногунун ортосундагы келечектеги мамилелер үчүн маанилүү тонду коюшу мүмкүн, бул атаандаштардан алыстап жүргөндөрдүн көңүлүн бурат.

Конкуренттер биригишти: OpenAI жана Google Anthropicты Пентагондон куткарууда биринчи жолу K-News сайтында пайда болду.
VK X OK WhatsApp Telegram

Дагы окуңуз: