Илон Мъск пуска кода на своя AI за свободно сваляне в интернет | IT.dir.bg

17-11-2017 20-11-2018
Илон Мъск пуска кода на своя AI за свободно сваляне в интернет
Снимка: xAI

Илон Мъск пуска кода на своя AI за свободно сваляне в интернет

Grok може да се ползва свободно за комерсиални цели

| Редактор: Стоян Гогов 0 1378

Верен на думата си, Илон Мъск направи първия си голям езиков модел (LLM) с отворен код. Милиардерът пусна кода на своя изкуствен интелект за свободно сваляне от всеки предприемач, програмист, компания, физическо лице или кибер ентусиаст.

По този начин общността ще може свободно да използва копие на модела за каквото пожелае, включително за търговски приложения.

"Ние пускаме за сваляне базовия модел и мрежовата архитектура на Grok-1, нашия голям езиков модел", обяви компанията xAI. "Grok-1 е модел с 314 милиарда параметъра, обучен от нулата от нас."

С 314 милиарда параметри Grok е доста пред конкуренти с отворен код като Llama 2 на Meta (70 милиарда параметъра) и Mistral 8x7B (12 милиарда параметъра).

Grok е с отворен код под Apache License 2.0, което позволява търговска употреба, модификации и разпространение. Потребителите трябва да възпроизведат оригиналния лиценз, известието за авторски права и да посочат промените, които са направили.

Изданието на Grok обаче не включва пълния корпус от неговите данни за обучение. Това всъщност няма значение за използването на модела, тъй като той вече е обучен. Потребителите единствено не могат да видят от какво е научил информацията си изкуствения интелект. Предполага се, че Grok е захранван с бази данни от Twitter.

Заинтересованите могат да изтеглят кода за Grok на неговата страница в Github или чрез торент връзка.

Пускането на Grok вероятно ще окаже натиск върху всички останали доставчици на AI чатботове. Те ще трябва да оправдаят цената и възможностите си като по-добри от свободния алгоритъм на Мъск.

За сравнение българският изкуствен интелект BgGPT също е с отворен код Apache License 2.0. Той е базиран на Mistral-7B, но е специално дообучен с данни на български език. Mistral-7B е със 7 милиарда параметъра, но за сметка на това надминава моделът Llama 2 на Meta.

Илон Мъск пуска кода на своя AI за свободно сваляне в интернет

Илон Мъск пуска кода на своя AI за свободно сваляне в интернет

Grok може да се ползва свободно за комерсиални цели

| Редактор : Стоян Гогов 0 1378 Снимка: xAI

Верен на думата си, Илон Мъск направи първия си голям езиков модел (LLM) с отворен код. Милиардерът пусна кода на своя изкуствен интелект за свободно сваляне от всеки предприемач, програмист, компания, физическо лице или кибер ентусиаст.

По този начин общността ще може свободно да използва копие на модела за каквото пожелае, включително за търговски приложения.

"Ние пускаме за сваляне базовия модел и мрежовата архитектура на Grok-1, нашия голям езиков модел", обяви компанията xAI. "Grok-1 е модел с 314 милиарда параметъра, обучен от нулата от нас."

С 314 милиарда параметри Grok е доста пред конкуренти с отворен код като Llama 2 на Meta (70 милиарда параметъра) и Mistral 8x7B (12 милиарда параметъра).

Grok е с отворен код под Apache License 2.0, което позволява търговска употреба, модификации и разпространение. Потребителите трябва да възпроизведат оригиналния лиценз, известието за авторски права и да посочат промените, които са направили.

Изданието на Grok обаче не включва пълния корпус от неговите данни за обучение. Това всъщност няма значение за използването на модела, тъй като той вече е обучен. Потребителите единствено не могат да видят от какво е научил информацията си изкуствения интелект. Предполага се, че Grok е захранван с бази данни от Twitter.

Заинтересованите могат да изтеглят кода за Grok на неговата страница в Github или чрез торент връзка.

Пускането на Grok вероятно ще окаже натиск върху всички останали доставчици на AI чатботове. Те ще трябва да оправдаят цената и възможностите си като по-добри от свободния алгоритъм на Мъск.

За сравнение българският изкуствен интелект BgGPT също е с отворен код Apache License 2.0. Той е базиран на Mistral-7B, но е специално дообучен с данни на български език. Mistral-7B е със 7 милиарда параметъра, но за сметка на това надминава моделът Llama 2 на Meta.