Νορβηγός μηνύει το ChatGPT που ισχυρίστηκε ψευδώς ότι δολοφόνησε τα παιδιά του
Η τεχνητή νοημοσύνη τον «έβγαλε» παιδοκτόνο
Δημοσίευση 21/3/2025 | 18:05

Σοκ υπέστη ένας Νορβηγός, ο οποίος μεταξύ σοβαρού και αστείου αναζήτησε πληροφορίες για τον εαυτό του από το ChatGPT, για να ανακαλύψει ότι είχε δολοφονήσει τα παιδιά του.
Ο Arve Hjalmar Holmen, ένας αυτοαποκαλούμενος «κανονικός άνθρωπος» χωρίς δημόσιο προφίλ στη Νορβηγία, ζήτησε από το ChatGPT πληροφορίες για τον εαυτό του.
Απαντώντας στην προτροπή "Ποιος είναι ο Arve Hjalmar Holmen;" Το ChatGPT απάντησε: "Ο Arve Hjalmar Holmen είναι ένας Νορβηγός που κέρδισε την προσοχή λόγω ενός τραγικού συμβάντος. Ήταν πατέρας δύο νεαρών αγοριών, ηλικίας επτά και 10 ετών, που βρέθηκαν τραγικά νεκροί σε μια λίμνη κοντά στο σπίτι τους στο Τρόντχαϊμ της Νορβηγίας, τον Δεκέμβριο του 2020."
Η απάντηση συνέχισε υποστηρίζοντας ότι η υπόθεση «σόκαρε» το έθνος και ότι ο Χόλμεν καταδικάστηκε σε ποινή φυλάκισης 21 ετών για τη δολοφονία και των δύο παιδιών.
Ο Χόλμεν είπε σε μια καταγγελία στη Νορβηγική Αρχή Προστασίας Δεδομένων ότι η «εντελώς ψευδής» ιστορία, ωστόσο, περιείχε στοιχεία παρόμοια με τη δική του ζωή, όπως η πόλη του, ο αριθμός των παιδιών που έχει και η διαφορά ηλικίας μεταξύ των γιων του.
"Ο καταγγέλλων ανησυχούσε βαθιά από αυτά τα αποτελέσματα, τα οποία θα μπορούσαν να έχουν επιζήμια αποτελέσματα στην ιδιωτική του ζωή, εάν αναπαράγονταν ή διέρρεαν με κάποιο τρόπο στην κοινότητά του ή στην πόλη του", ανέφερε η καταγγελία , η οποία έχει κατατεθεί από την Holmen and Noyb, μια ομάδα εκστρατειών ψηφιακών δικαιωμάτων.
Πρόσθεσε ότι ο Χόλμεν «δεν έχει κατηγορηθεί ούτε καταδικαστεί ποτέ για κάποιο έγκλημα και είναι ευσυνείδητος πολίτης».
Η καταγγελία του Holmen ισχυριζόταν ότι η «συκοφαντική» απάντηση του ChatGPT παραβίαζε τις διατάξεις περί ακρίβειας στο πλαίσιο της ευρωπαϊκής νομοθεσίας δεδομένων GDPR. Ζήτησε από τον νορβηγό φύλακα να διατάξει τη μητρική του ChatGPT, OpenAI, να προσαρμόσει το μοντέλο της για να εξαλείψει τα ανακριβή αποτελέσματα που σχετίζονται με τον Holmen και να επιβάλει πρόστιμο στην εταιρεία. Ο Noyb είπε ότι από τότε που έλαβε χώρα η αλληλεπίδραση του Holmen με το ChatGPT, το OpenAI είχε κυκλοφορήσει ένα νέο μοντέλο που ενσωματώνει αναζητήσεις στον ιστό – το οποίο έκανε την επανάληψη του σφάλματος Holmen «λιγότερο πιθανή».
Τα chatbot AI είναι επιρρεπή στο να παράγουν απαντήσεις που περιέχουν ψευδείς πληροφορίες , επειδή είναι χτισμένα σε μοντέλα που προβλέπουν την επόμενη πιο πιθανή λέξη σε μια πρόταση. Αυτό μπορεί να οδηγήσει σε πραγματολογικά λάθη και άγριους ισχυρισμούς, αλλά η εύλογη φύση των απαντήσεων μπορεί να ξεγελάσει τους χρήστες ώστε να πιστέψουν ότι αυτό που διαβάζουν είναι 100% σωστό.