Θα έπρεπε να ανησυχούμε για τα συναισθήματα της ΤΝ;

Οι εταιρείες αγωνίζονται να κατασκευάσουν μηχανές που είναι πιο έξυπνες και μας μοιάζουν περισσότερο

Anjana Ahuja, Financial Times

Η συζήτηση σχετικά με το αν η τεχνητή νοημοσύνη θα φτάσει ή θα αντικαταστήσει την ανθρώπινη νοημοσύνη συνήθως πλαισιώνεται ως ένας υπαρξιακός κίνδυνος για τον Homo sapiens. Ένας στρατός ρομπότ που ξεσηκώνεται, σε στυλ Φρανκενστάιν, και στρέφεται εναντίον των δημιουργών του. Τα αυτόνομα συστήματα τεχνητής νοημοσύνης που διαχειρίζονται αθόρυβα τις κυβερνητικές και εταιρικές επιχειρήσεις, υπολογίζοντας μια μέρα ότι ο κόσμος θα λειτουργούσε πιο ομαλά αν οι άνθρωποι έβγαιναν από τον βρόχο.

Τώρα οι φιλόσοφοι και οι ερευνητές της ΤΝ αναρωτιούνται: θα αναπτύξουν αυτές οι μηχανές την ικανότητα να βαριούνται ή να βλάπτονται; Τον Σεπτέμβριο, η εταιρεία τεχνητής νοημοσύνης Anthropic διόρισε έναν ερευνητή «ευημερίας της τεχνητής νοημοσύνης» για να αξιολογήσει, μεταξύ άλλων, κατά πόσον τα συστήματά της πλησιάζουν προς τη συνείδηση ή τη δράση και, αν ναι, κατά πόσον πρέπει να ληφθεί υπόψη η ευημερία τους. Την περασμένη εβδομάδα, μια διεθνής ομάδα ερευνητών δημοσίευσε μια έκθεση για το ίδιο θέμα.

Ο ρυθμός της τεχνολογικής ανάπτυξης, γράφουν, φέρνει «μια ρεαλιστική πιθανότητα ότι ορισμένα συστήματα τεχνητής νοημοσύνης θα έχουν συνείδηση και/ή ισχυρή ενεργητικότητα, και συνεπώς ηθική σημασία, στο εγγύς μέλλον». Η ιδέα να ανησυχούμε για τα συναισθήματα της τεχνητής νοημοσύνης φαίνεται παράξενη, αλλά αποκαλύπτει ένα παράδοξο στην καρδιά της μεγάλης ώθησης της τεχνητής νοημοσύνης: ότι οι εταιρείες τρέχουν για να δημιουργήσουν τεχνητά συστήματα που είναι πιο έξυπνα και μας μοιάζουν περισσότερο, ενώ ταυτόχρονα ανησυχούν ότι τα τεχνητά συστήματα θα γίνουν πολύ έξυπνα και πολύ σαν εμάς.

Δεδομένου ότι δεν κατανοούμε πλήρως πώς η συνείδηση, ή η αίσθηση του εαυτού, προκύπτει στους ανθρώπινους εγκεφάλους, δεν μπορούμε να είμαστε πραγματικά σίγουροι ότι δεν θα υλοποιηθεί ποτέ στους τεχνητούς εγκεφάλους.

Αυτό που φαίνεται αξιοσημείωτο, δεδομένων των βαθύτατων συνεπειών της δημιουργίας ψηφιακών «μυαλών» για το δικό μας είδος, είναι ότι δεν υπάρχει μεγαλύτερη εξωτερική εποπτεία για το πού οδεύουν αυτά τα συστήματα. Η έκθεση, με τίτλο Taking AI Welfare Seriously, συντάχθηκε από ερευνητές της Eleos AI, μιας δεξαμενής σκέψης αφιερωμένης στη «διερεύνηση της νοημοσύνης και της ευημερίας της τεχνητής νοημοσύνης», μαζί με συγγραφείς όπως ο φιλόσοφος του Πανεπιστημίου της Νέας Υόρκης David Chalmers, ο οποίος υποστηρίζει ότι οι εικονικοί κόσμοι είναι πραγματικοί κόσμοι, και ο Jonathan Birch, ακαδημαϊκός στο London School of Economics, του οποίου το πρόσφατο βιβλίο, The Edge of Sentience, προσφέρει ένα πλαίσιο για τη σκέψη σχετικά με τα μυαλά των ζώων και της τεχνητής νοημοσύνης.

Η έκθεση δεν ισχυρίζεται ότι η αίσθηση της τεχνητής νοημοσύνης (η ικανότητα να αισθάνεται αισθήσεις όπως ο πόνος) ή η συνείδηση είναι δυνατή ή επικείμενη, παρά μόνο ότι «υπάρχει σημαντική αβεβαιότητα σχετικά με αυτές τις δυνατότητες». Παραλληλίζουν την ιστορική μας άγνοια για το ηθικό καθεστώς των μη ανθρώπινων ζώων, η οποία επέτρεψε την εκτροφή σε εργοστάσια- μόλις το 2022, με τη βοήθεια του έργου του Birch, τα καβούρια, οι αστακοί και τα χταπόδια προστατεύονται από τον νόμο του Ηνωμένου Βασιλείου για την ευημερία των ζώων (συναίσθημα).

Η ανθρώπινη διαίσθηση, προειδοποιούν, είναι ένας κακός οδηγός: το δικό μας είδος είναι επιρρεπές τόσο στον ανθρωπομορφισμό, που αποδίδει ανθρώπινα χαρακτηριστικά σε μη ανθρώπους που δεν τα έχουν, όσο και στον ανθρωποδενισμό, που αρνείται τα ανθρώπινα χαρακτηριστικά σε μη ανθρώπους που τα έχουν. Η έκθεση συνιστά στις εταιρείες να λάβουν σοβαρά υπόψη τους το ζήτημα της ευημερίας της τεχνητής νοημοσύνης- στους ερευνητές να βρουν τρόπους να διερευνήσουν τη συνείδηση της τεχνητής νοημοσύνης, ακολουθώντας το παράδειγμα των επιστημόνων που μελετούν τα μη ανθρώπινα ζώα- και στους υπεύθυνους χάραξης πολιτικής να αρχίσουν να εξετάζουν την ιδέα της νοήμονος ή συνειδητής τεχνητής νοημοσύνης, συγκαλώντας ακόμη και συνελεύσεις πολιτών για να διερευνήσουν τα ζητήματα.

Αυτά τα επιχειρήματα έχουν βρει κάποια υποστήριξη στην παραδοσιακή ερευνητική κοινότητα. «Νομίζω ότι η πραγματική τεχνητή συνείδηση είναι απίθανη, αλλά όχι αδύνατη», λέει ο Anil Seth, καθηγητής γνωστικής και υπολογιστικής νευροεπιστήμης στο Πανεπιστήμιο του Sussex και γνωστός ερευνητής της συνείδησης. Πιστεύει ότι η αίσθηση του εαυτού μας είναι συνδεδεμένη με τη βιολογία μας και είναι κάτι περισσότερο από απλός υπολογισμός. Αλλά αν κάνει λάθος, όπως παραδέχεται ότι μπορεί να κάνει, οι συνέπειες θα μπορούσαν να είναι τεράστιες: «Η δημιουργία συνειδητής τεχνητής νοημοσύνης θα ήταν μια ηθική καταστροφή, αφού θα είχαμε εισαγάγει στον κόσμο νέες μορφές ηθικού υποκειμένου και ενδεχομένως νέες μορφές πόνου, σε βιομηχανική κλίμακα». Κανείς, προσθέτει ο Σεθ, δεν θα έπρεπε να προσπαθεί να κατασκευάσει τέτοιες μηχανές.

Η ψευδαίσθηση της συνείδησης μοιάζει με μια πιο κοντινή ανησυχία. Το 2022, ένας μηχανικός της Google απολύθηκε αφού δήλωσε ότι πίστευε ότι το AI chatbot της εταιρείας έδειχνε σημάδια αίσθησης. Το Anthropic έχει «εκπαιδεύσει χαρακτήρες» στο μεγάλο γλωσσικό μοντέλο του για να του προσδώσει χαρακτηριστικά όπως η στοχαστικότητα. Καθώς οι μηχανές παντού, ιδίως τα LLM, διαμορφώνονται ώστε να μοιάζουν περισσότερο με τον άνθρωπο, κινδυνεύουμε να εξαπατηθούμε σε κλίμακα από εταιρείες που περιορίζονται από λίγους ελέγχους και ισορροπίες.

Κινδυνεύουμε να φροντίσουμε μηχανές που δεν μπορούν να ανταποδώσουν, αποσπώντας τους πεπερασμένους ηθικούς μας πόρους από τις σχέσεις που έχουν σημασία. Η ελαττωματική ανθρώπινη διαίσθησή μου ανησυχεί λιγότερο για το αν τα μυαλά της τεχνητής νοημοσύνης αποκτήσουν την ικανότητα να αισθάνονται – και περισσότερο για το αν τα ανθρώπινα μυαλά χάσουν την ικανότητα να νοιάζονται.

Τ.Σ.

Ακολουθήστε το στο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στο