Senaste nytt på AI-fronten: ChatGPT har börjat förfalska källtexter. Ställ en fråga, och ChatGPT kan svara med hänvisning till tidningsartiklar som inte existerar – men som programmet har skrivit själv, med verkliga journalisters namn. Det har redaktörerna för The Guardian upptäckt.
Det finns en viktig slutsats att dra här: ingenting har gått fel. Det här är inte ett olycksfall i arbetet. De fejkade Guardian-artiklarna visar att ChatGPT fungerar exakt enligt specifikationerna. Vi har inte skapat ett användbart researchverktyg, vi har skapat ett program som genererar falsk och otillförlitlig information.
Kan vi sluta låtsas att AI är en kunskapsteknologi? Det vore rimligare att säga att den riktning längs vilken vi utvecklar AI syftar till att förinta kunskap, kreativitet och mänsklig mognad. Det skriver jag om i Kvartal idag: AI har börjat förfalska kunskap.
_____
Här är ytterligare ett exempel på den falska information som ChatGPT har börjat uppfinna på egen hand; jag hoppas att det kan ge näring åt läsarens fantasi. En amerikansk jurist bad nyligen ChatGPT att gå ut på nätet och söka efter akademiker som hade begått sexuella övergrepp. Programmet svarade med en lista där verkliga förövare blandades med oskyldigt anklagade. Jonathan Turley, som är professor i juridik vid George Washington University i Washington, påstods ha förgripit sig på sina studenter under en resa till Alaska som aldrig har ägt rum. Som källa hänvisade ChatGPT till en artikel i The Washington Post från 2018 – en artikel som aldrig har publicerats, eftersom programmet har skrivit den själv.
_____
Bonus: läs också fysikern Ulf Danielsson, som kyler ner AI-hypen en aning: ”I själva verket är det lika orimligt att tro att en dator som simulerar språkanvändning blir medveten som att det börjar regna och blåsa inuti en dator som beräknar vädret.” (DN 2 maj 2o23.)
0 kommentarer
Inga kommentarer
Kommentera