Създателите на Claude AI – Anthropic – обвиниха три китайски компании за изкуствен интелект в координирани атаки с цел кражба на базови настройки от техния езиков модел.
Компанията на Дарио Амодей твърди, че китайските DeepSeek, Moonshot AI и MiniMax съзнателно и координирано са изпращали огромни количества заявки към модела Claude, за да извлекат конкретни негови способности.
След това те са използвали тази информация, за да тренират собствените си модели.
Това е станало с десетки хиляди фалшиви профили, които са използвали прокси мрежи, тъй като достъпът до Claude AI e забранен в Китай.
В случая не става дума за хакерска атака или пробив в сигурността на системите на Anthropic, а за принципно позволена техника на „дестилиране“.
Тя позволява да се създадат по-малки модели, които не се захранват с огромни масиви от данни с цената на стотици милиони инвестиции, а се учат от отговорите на друг вече съществуващ и работещ голям модел и имитират неговото поведение.
Дестилирането е по-евтин и по-бърз метод. Anthropic сами принзават, че го прилагат вътрешно за създаването на базови безплатни услуги за потребителите.
Сега обаче обвинението срещу Китай е, че го използва за целите на индустриален шпионаж.
Anthropic описват много подробно начините, по които са успели да свържат кампаниите със специфична лаборатория чрез корелация на IP адреси, метаданни, инфраструктурни показатели и дори „сътрудничество с партньори от индустрията, които наблюдават същото поведение от страна на същите страни в своите платформи“.
Истинският проблем е свързан и с националната сигурност, твърдят още от компанията.
„Anthropic и други американски фирми изграждат системи, които не допускат държавни или неправителствени представители да изполват изкуствения интелект например за разработването на биологични оръжия или извършването на злонамерени действия в кибер средата. Моделите, които се изграждат чрез неразрешено дестилиране, едва ли разполагат с подобни гаранции, което означава, че може да се стигне до разпространението на опасни способности, когато много от защитите са изцяло свалени“, се казва в позицията им.
В същото време Reuters съобщи, че САЩ са открили доказателства как китайската DeepSeek е заобиколила експортния контрол върху високотехнологични чипове от Nvidia, защото е обучавала своя AI модел върху чипа Blackwell.
Anthropic e втората компания след OpenAI, която твърди, че китайските им конкуренти злоупотребяват с готовите големи модели за собствена търговска изгода.