Isang bagong pag-aaral mula sa BBC ang nagbunyag na ilan sa pinakasikat na AI chatbots, kabilang ang ChatGPT, ay madalas Nagkamali sa pagsasama-sama ng mga balita.

Sa eksperimento, sinubukan ng BBC na ipasummarize sa ChatGPT, Copilot, Gemini, at Perplexity ang 100 balita mula sa kanilang website. Matapos suriin ang mga sagot, lumabas na 51% ng AI-generated summaries ay may malalaking pagkakamali, habang 19% ng mga sagot na may sangguning BBC ay naglalaman ng maling impormasyon, gaya ng maling datos, numero, at petsa.

Ilan sa mga halimbawa ng pagkakamali ay ang maling pahayag ng Gemini na hindi raw inirerekomenda ng NHS ang vaping bilang tulong sa pagtigil sa paninigarilyo. Samantala, parehong nagkamali ang ChatGPT at Copilot nang sabihin nilang nasa pwesto pa sina Rishi Sunak at Nicola Sturgeon, kahit matagal na silang nagbitiw.

Bukod sa factual errors, isa pang isyu ang pagkabigo ng AI na paghiwalayin ang opinyon at katotohanan. Madalas ding nawawala ang mahalagang konteksto, kaya’t nagiging hilaw o may pagkiling ang ilang sagot. Hindi ito nakakagulat, lalo na sa kasalukuyang estado ng AI summarization tools. Sa katunayan, mismong Apple ay pansamantalang inalis ang kanilang AI-generated news summaries sa iOS 18.3 dahil sa mga maling impormasyon.

Ayon sa pag-aaral, lumalabas na mas maraming seryosong problema ang Microsoft Copilot at Google Gemini, kumpara sa OpenAI ChatGPT at Perplexity. Bagama’t hindi ito nagbibigay ng bagong impormasyon, pinapatibay nito ang pangamba ng publiko sa AI-generated news at nagpapaalala na huwag basta-basta maniwala sa lahat ng inilalabas ng chatbots.

Mabilis ang pag-unlad ng AI, at halos linggo-linggo ay may bagong Large Language Model (LLM) na lumalabas. Sa isang blog post, sinabi ni Sam Altman ng OpenAI na mas mabilis pa umano sa Moore’s Law ang pag-usad ng AI, kaya’t asahan ang patuloy na pagbuti ng teknolohiya. Pero sa ngayon, mukhang mas ligtas pa ring kumuha ng balita mula sa mga mapagkakatiwalaang news sources kaysa umasa sa AI.

Source: TechRadar.com