Η OpenAI culpa a la start-up xinesa d'intel·ligència artificial DeepSeek per infracció dels drets d'autor, al·legant que va utilitzar els seus propis models per entrenar el seu chatbot d'IA
Des de la posada en marxa de la intel·ligència artificial (IA) xinesa DeepSeek la va sacsejar Silicon Valley i Wall Street amb els seus models rendibles, l'empresa ha estat acusada de robar dades mitjançant una pràctica comuna a tota la indústria.
Η OpenAI va declarar que té proves que el DeepSeek va utilitzar el mètode de "destil·lació" (destil·lació) dels seus models GPT OpenAI, per entrenar-los models de codi obert V3 i R1 a DeepSeek, a una fracció del que gasten els gegants tecnològics occidentals en els seus propis models, segons informa Financial Times dimecres.
Encara que el destil·lació és una pràctica habitual a la indústria, h OpenAI argumenta que el seu ús per crear un model competitiu incompleix les seves condicions d'ús.
El mètode de destil·lació és un mitjà per entrenar models més petits per imitar el comportament de models més grans i més sofisticats. Aquesta pràctica és habitual entre moltes empreses que volen reduir la mida dels seus models alhora que ofereixen un rendiment similar als models més grans als seus usuaris.
Tot l'anterior, combinat amb el fet que la formació de tots els models d'AI coneguts sovint es basa en moltes dades d'origen dubtós, ha portat alguns experts a qüestionar la sinceritat d'OpenAI en les seves acusacions d'infracció de la propietat intel·lectual per part d'OpenAI. DeepSeek.
Es fa notar que el DeepSeek va sorprendre el sector amb el seu llançament model R1, que va aconseguir un rendiment comparable als millors models nord-americans malgrat els seus baixos costos de desenvolupament. Les preocupacions sobre la reducció de la necessitat d'adquirir maquinari d'IA car van contribuir a Les accions de Nvidia baixen un 17%, tot i que es va recuperar parcialment l'endemà.
Tal com diu Dit de Lutz, professor titular de la Universitat de Cornell que ha treballat en intel·ligència artificial a empreses tecnològiques com Google i LinkedIn;
Però a més de tot l'anterior, les coses sembla que es compliquen encara més quan es tracta de DeepSeek, ja que segons el que @Dorialexander, el DeepSeek R1 LLM pot haver-se format inicialment Maquinari Nvidia H100, que és un dels processadors més potents per entrenar models d'IA.
No obstant això, l'execució del model es realitza utilitzant-lo Ascend 910C de Huawei, perquè el Ascend xip de Huawei no són capaços d'assumir la càrrega de formar models Ai.
El motiu pel qual s'utilitza Pujada 910C és que per executar el model els requisits de potència de processament són més baixos que per a la formació. Tanmateix, aquest noi xip és més eficient i més econòmic per satisfer aquestes necessitats.
No us oblideu de seguir-lo Xiaomi-miui.gr en Google News per estar informat immediatament de tots els nostres nous articles! També podeu, si feu servir el lector RSS, afegir la nostra pàgina a la vostra llista, simplement seguint aquest enllaç >> https://xiaomi-miui.gr/feed/gn