Pavarësisht përpjekjeve të bëra për të zgjidhur problemin e dhënies së të dhënave të pasakta, duket se kompania OpenAI do të ketë më shumë punë për të bërë për të përmirësuar ChatGPT për këtë çështje, të paktën kur bëhet fjalë për Bashkimin Evropian.
Task-forca e mbikëqyrësit të privatësisë së Bashkimit Evropian tha se përpjekjet e fundit nga OpenAI për të zbutur rrezikun e chatbotit të tij gjerësisht të popullarizuar ChatGPT që prodhon rezultate faktike të rreme, nuk ishin të mjaftueshme për të siguruar përputhjen me rregullat e të dhënave të BE-së.
Çështja e “halucinimit” të të dhënave me inteligjencë artificiale është një çështje komplekse, për të cilën kemi shkruar tashmë.
“Megjithëse masat e marra për të respektuar parimin e transparencës janë të dobishme për të shmangur keqinterpretimin e rezultateve të ChatGPT, ato nuk janë të mjaftueshme për të respektuar parimin e saktësisë së të dhënave”, thuhet në raportin e grupit të punës në fjalë, të publikuar të premten në faqen e tyre të internetit, sipas Reuters.
Hetimet e përbashkëta nga mbikëqyrësit kombëtarë të privatësisë së BE-së janë ende në vazhdim, thuhet në raport, duke shtuar se për këtë arsye nuk ishte ende e mundur të jepej një përshkrim i plotë i rezultateve.