Ілон Маск підтверджує: xAI тренувала Grok на моделях OpenAI Штучний інтелект: Грандіозний прорив! Ілон Маск розкриває таємницю тренування Grok на базі OpenAI – технології майбутнього вже тут!

Він зазначив, що компанія “частково” використовувала дистиляцію моделей для покращення моделей xAI.

Ілон Маск підтверджує: xAI тренувала Grok на моделях OpenAI Штучний інтелект: Грандіозний прорив! Ілон Маск розкриває таємницю тренування Grok на базі OpenAI – технології майбутнього вже тут! 1Частина Прямі трансляції судової битви Ілона Маска та Сема Альтмана щодо майбутнього OpenAI Дивіться всі оновлення Ілон Маск підтверджує: xAI тренувала Grok на моделях OpenAI Штучний інтелект: Грандіозний прорив! Ілон Маск розкриває таємницю тренування Grok на базі OpenAI – технології майбутнього вже тут! 2ЗакритиІлон Маск підтверджує: xAI тренувала Grok на моделях OpenAI Штучний інтелект: Грандіозний прорив! Ілон Маск розкриває таємницю тренування Grok на базі OpenAI – технології майбутнього вже тут! 3Гейден Філд

Публікації від цього автора будуть додані до вашого щоденного дайджесту та стрічки новин на головній сторінці.

ПідписатисяПідписатися

Переглянути все від Гейден Філд

є головним репортером The Verge з питань ШІ. Її роботи, яка охоплює сферу ШІ понад п’ять років, також з’являлися в CNBC, MIT Technology Review, Wired UK та інших виданнях.

У четвер у федеральному суді Каліфорнії Ілон Маск свідчив, що його власний стартап у сфері ШІ, xAI, використовував моделі OpenAI для покращення власних.

Предметом розгляду є дистиляція моделей — поширена в індустрії практика, за якою одна більша модель ШІ виступає своєрідним “вчителем”, передаючи знання меншій моделі ШІ-“студенту”. Хоча це часто використовується легітимно в компаніях, які тренують одну зі своїх моделей ШІ за допомогою іншої, це також практика, яку іноді використовують менші лабораторії ШІ, намагаючись змусити свої моделі імітувати продуктивність конкуруючих великих моделей.

Відповідаючи на запитання на свідченні, чи знає він, що таке дистиляція моделей, Маск сказав, що це використання однієї моделі ШІ для навчання іншої. На запитання, чи використовувала xAI технології OpenAI для дистиляції, Маск, здавалося, ухилився від відповіді, заявивши, що “загалом усі компанії ШІ” роблять подібні речі. А на запитання, чи це означає “так”, він відповів: “Частково”.

Наполягаючи, Маск додав: “Стандартною практикою є використання інших ШІ для валідації вашого ШІ”.

Дистиляція моделей набуває все більшого поширення та викликає більше суперечок серед лабораторій ШІ в останні роки, оскільки межі між тим, що є законним, а що порушує певні умови або політики компанії, часто перебувають у “сірій зоні”. Такі компанії, як OpenAI та Anthropic, звинувачували китайські фірми в дистиляції своїх моделей. OpenAI публічно висловлювала занепокоєння щодо DeepSeek, а Anthropic конкретно згадувала DeepSeek, Moonshot та MiniMax. Google також вживає заходів для запобігання так званим “атакам дистиляції” або “методу крадіжки інтелектуальної власності, що порушує умови надання послуг Google”.

У власному дописі в блозі з цього приводу Anthropic написав: “Дистиляція є широко використовуваним і законним методом навчання. Наприклад, передові лабораторії ШІ постійно дистилюють власні моделі для створення менших, дешевших версій для своїх клієнтів. Але дистиляція також може використовуватися для протиправних цілей: конкуренти можуть використовувати її для отримання потужних можливостей від інших лабораторій за частку часу та вартості, необхідних для їх самостійної розробки”.

Подробиці можна знайти на сайті: www.theverge.com

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *