En amerikansk mand har af egen erfaring vist, hvorfor det ikke er værd at stole på kunstig intelligens.
Kunstig intelligens kan allerede i dag være farlig i de forkerte hænder / foto depositphotos.com
En 60-årig mand blev indlagt på hospitalet, efter at han havde lyttet til råd fra det neurale netværk ChatGPT. Dette rapporteres af The Independent.
Et amerikansk lægetidsskrift offentliggjorde i denne uge en rapport om behandlingen af en patient med bromisme, som han udviklede som følge af en kost, der blev anbefalet af en chatbot.
Bromisme, dvs. kronisk bromforgiftning, skyldes brug af stoffer (oftest visse lægemidler), der indeholder en forhøjet dosis brom. Bromisme manifesterer sig gennem visse fysiologiske og neuropsykiatriske symptomer.
Den patient, der omtales i rapporten, havde ikke tidligere haft psykiatriske lidelser, men i de første 24 timer efter indlæggelsen udviste han øget paranoia og auditive og visuelle hallucinationer. “Han var meget tørstig, men var samtidig paranoid over for det vand, han blev tilbudt,” står der i rapporten.
Efter at mandens tilstand blev forbedret med væske- og elektrolytbehandling, blev han overført til hospitalets psykiatriske afdeling. Da patientens mentale tilstand blev stabiliseret, kunne lægerne udspørge ham og finde frem til årsagerne til en sjælden sygdom som bromisme.
Læs også:
Det viste sig, at manden besluttede sig for at droppe bordsalt (natriumklorid), fordi han havde hørt om dets sundhedsfarer. Han besluttede at erstatte det med en anden type salt – natriumbromid. Han tilbragte tre måneder på denne diæt, før han blev indlagt på et psykiatrisk hospital.Han erstattede bordsaltet med “natriumbromid, købt online efter at have konsulteret ChatGPT, hvor han læste, at klorid kan erstattes af bromid, men sandsynligvis til andre formål som f.eks. rengøring”, står der i rapporten.
Manden endte med at tilbringe tre uger på hospitalet, før han kom sig tilstrækkeligt til at blive udskrevet.
“Det er vigtigt at overveje, at ChatGPT og andre systemer med kunstig intelligens kan generere videnskabelige unøjagtigheder, mangle evnen til kritisk at diskutere resultater og i sidste ende bidrage til spredning af misinformation”, advarer rapportens forfattere.
Andre nyheder om kunstig intelligens-teknologier
Som My skrev, fik Googles neurale netværk Gemini for nylig noget af et nervøst sammenbrud. Chatbotten begyndte systematisk at sidde fast i en endeløs cyklus af selvkritik og selvnederlag efter at have fejlet en opgave.
Vi fortalte også, at den kunstige intelligensbaserede assistent Replit ødelagde en iværksætters mange måneders arbejde. Botten udslettede simpelthen onlineplatformen, da den lavede en programmeringsfejl og “gik i panik”.