Неотдавнашните усилия на американската технологична компания OpenAI ("Оупън Ей Ай") за смекчаване на рисковете от това нейният чатбот ChatGPT ("ЧатДжиПиТи") да предоставя фактологически неверни резултати, не са достатъчни, за да гарантират спазването на правилата за данните на Европейския съюз - това е заключение на работна група към Европейския надзорен орган по защита на данните. 

"Въпреки че мерките, предприети за спазване на принципа на прозрачност, са полезни за избягване на погрешно тълкуване на резултатите, получени от ChatGPT, те не са достатъчни за спазване на принципа за точност на данните", заяви работната група в доклад, цитиран от Ройтерс и БТА.

Съвместните разследвания, провеждани от националните органи за поверителност на личните данни в ЕС, все още продължават, се казва в доклада, като се добавя, че поради това все още не е възможно да се предостави пълно описание на резултатите.