Επιστήμονες από το MIT ανακάλυψαν ότι τα συστήματα τεχνητής νοημοσύνης (AI), συμπεριλαμβανομένων δημοφιλών μοντέλων όπως το ChatGPT, το Gemini και το Llama, εξακολουθούν να μην μπορούν να κατανοήσουν σωστά την άρνηση – τη βασική γλωσσική λειτουργία του «όχι» ή του «όχι».
Αυτό το τυφλό σημείο μπορεί να οδηγήσει σε επικίνδυνα λάθη, ειδικά σε σημαντικούς τομείς όπως η υγειονομική περίθαλψη, όπου η σωστή ερμηνεία φράσεων όπως «κανένα κάταγμα» είναι κρίσιμη.
Η μελέτη διαπίστωσε ότι η AI τείνει να προτιμά θετικές έννοιες επειδή αυτά τα μοντέλα μαθαίνουν αναγνωρίζοντας μοτίβα αντί να συλλογίζονται λογικά.
Για παράδειγμα, μπορεί να ερμηνεύουν το «όχι καλό» ως κάπως θετικό λόγω της ισχυρής συσχέτισης με τη λέξη «καλό».
Τα μοντέλα AI οπτικής γλώσσας που αναλύουν εικόνες και κείμενο έδειξαν ακόμη μεγαλύτερες δυσκολίες στη διάκριση των αρνητικών από τις θετικές λεζάντες.
Οι ερευνητές δοκίμασαν νέες προσεγγίσεις χρησιμοποιώντας δεδομένα συνθετικής άρνησης για να βοηθήσουν την AI να κατανοήσει καλύτερα την άρνηση, αλλά οι προκλήσεις παραμένουν με ανεπαίσθητες διαφορές.
Οι ειδικοί λένε ότι το βασικό ζήτημα δεν είναι η έλλειψη δεδομένων εκπαίδευσης, αλλά η ανάγκη η AI να μαθαίνει συλλογισμό και λογική αντί να μιμείται απλώς τα γλωσσικά μοτίβα. Αυτός ο περιορισμός σημαίνει ότι η AI θα μπορούσε να συνεχίσει να κάνει μικρά αλλά σοβαρά λάθη, ειδικά σε ευαίσθητους τομείς όπως η ιατρική, η νομική και οι ανθρώπινοι πόροι.
Η μελέτη υπογραμμίζει ότι η βελτίωση της κατανόησης του «όχι» από την Τεχνητή Νοημοσύνη αποτελεί ένα κρίσιμο βήμα προς ασφαλέστερα και πιο αξιόπιστα συστήματα Τεχνητής Νοημοσύνης.
