Një avokat në SHBA përdori Chat GPT për të argumentuar një çështje në Apel, por iu kythe në bumerang.

 Sipas raportimeve, bëhet fjalë për një avokat, i cili përmendi një rast precedentësh në gjykatën e Manhattan-it, por në realitet, dënimet e sugjeruara nga ChatGPT ishin të gjitha të shpikura.

Edhe pse me një eksperiencë tridhjetëvjeçare, avokati Steven Schëartz u mbështet plotësisht në Inteligjencën Artificiale për të mbrojtur klientin e tij.

Vetëm pas kontrolleve të duhura, avokati kuptoi gabimin duke pranuar se nuk e kishte përdorur kurrë më parë chatbot-in.

Avokati Schëartz, po mbronte në gjykatën e Manhattan-it për Roberto Mata, një pasagjer në një fluturim të Avianca-s, i cili akuzonte kompaninë kolumbiane për lëndimin e gjurit gjatë një udhëtimi nga El Salvador në Nju Jork.

Avokati iu përgjigj kompanisë, e cila kërkoi shkarkimin duke kontestuar edhe skadimin e afateve (çështja daton në vitin 2019), me një vërshim precedentësh në të cilat gjykatat kishin rënë dakord me pasagjerët.

Megjithatë, të shtata rastet që ai përmendi kishin qenë të shpikura. Pasi nuk gjeti prova të precedentëve, gjyqtari Kevin Castel kërkoi nga Schëartz detajet e rasteve.

Avokati, i cili ishte mbështetur verbërisht në ChatGPT për të hetuar çështjen, vuri sërish në pyetje inteligjencën artificiale që i dha datat e procedimit, listoi gjykatat që vendosën, madje dhe numrin e dënimeve.

Megjithatë, gjyqtari nuk gjeti asgjë. Përballë kërkesës për të ekspozuar tekstin e plotë të dokumenteve të cituara, ChatGPT pranoi se kishte shpikur.

Në atë moment avokatit iu desh të pranonte se kishte përdorur ChatGPT. Dhe, kushdo që ka hulumtuar mirë në ChatGPT e di se ajo që ne e quajmë inteligjencë është, në realitet, një model probabiliteti i bazuar në një mekanizëm statistikor dhe në një bazë të dhënash të pamasë që përfshin gjithçka, të mirën dhe të keqen, që qarkullon në internet. Në shumicën e rasteve ai ofron informacion faktik, por jo gjithmonë.