ΚΥΡΙΑ ΣΗΜΕΙΑ
- Η τεχνητή νοημοσύνη μπορεί να παρέχει εξειδικευμένες οικονομικές συμβουλές και ενδέχεται να αντικαταστήσει τους ανθρώπινους οικονομικούς συμβούλους στο μέλλον, σύμφωνα με οικονομικούς και νομικούς εμπειρογνώμονες.
- Ωστόσο, σε αντίθεση με πολλούς ανθρώπινους συμβούλους, η τεχνητή νοημοσύνη δεν έχει καθήκον εμπιστοσύνης έναντι των πελατών, ανέφεραν.
- Αυτό σημαίνει ότι τα γενετικά μοντέλα τεχνητής νοημοσύνης — παραδείγματα των οποίων περιλαμβάνουν το ChatGPT της OpenAI, το Claude της Anthropic και το Gemini της Google — ενδέχεται να μην παρέχουν πάντα χρηματοοικονομικές συμβουλές προς το συμφέρον των χρηστών, ανέφεραν οι ειδικοί.
Η χρηματοοικονομική ικανότητα των πλατφορμών τεχνητής νοημοσύνης βελτιώνεται σε τέτοιο βαθμό που πιθανότατα θα είναι σε θέση να αντικαταστήσει τους ανθρώπινους χρηματοοικονομικούς συμβούλους στο μέλλον, σύμφωνα με ειδικούς στον τομέα των χρηματοοικονομικών.
Ωστόσο, η τεχνητή νοημοσύνη έχει ένα σημαντικό μειονέκτημα σε σχέση με τους ανθρώπινους συμβούλους: την έλλειψη εμπιστευτικής υποχρέωσης, ανέφεραν. Και η επίλυση αυτής της νομικής γκρίζας ζώνης δεν φαίνεται να είναι κοντά, πρόσθεσαν.
Η εμπιστευτική υποχρέωση είναι μια νομική υποχρέωση που πολλοί χρηματοοικονομικοί σύμβουλοι — και επαγγελματίες σε άλλους τομείς, όπως δικηγόροι και γιατροί — έχουν έναντι των πελατών τους. Ουσιαστικά σημαίνει ότι θα θέτουν το συμφέρον των πελατών τους πάνω από το δικό τους.
«Το πρόβλημα που πρέπει να λύσουμε δεν είναι αν η τεχνητή νοημοσύνη διαθέτει επαρκή εμπειρογνωμοσύνη», δήλωσε ο Andrew Lo, καθηγητής χρηματοοικονομικών και διευθυντής του Εργαστηρίου Χρηματοοικονομικής Μηχανικής στο MIT Sloan School of Management. «Η απάντηση αυτή τη στιγμή είναι, σαφώς, ότι η τεχνητή νοημοσύνη διαθέτει την [χρηματοοικονομική] εμπειρογνωμοσύνη».
«Αυτό που δεν έχει είναι το καθήκον εμπιστοσύνης», είπε ο Lo. «Δεν έχει την ικανότητα να υποστεί τις συνέπειες αν κάνει λάθος στον ίδιο βαθμό που τις υποστεί ένας ανθρώπινος σύμβουλος».
Ένας σύμβουλος που παραβιάζει την ευθύνη εμπιστοσύνης του μπορεί να υποστεί αρκετά σοβαρές συνέπειες, συμπεριλαμβανομένων ρυθμιστικών κυρώσεων, αστικών ευθυνών και ποινικών κατηγοριών, είπε ο Lo.
Η έννοια του να βάζεις το συμφέρον του πελάτη πάνω από το δικό σου «δεν έχει καμία ισχύ» χωρίς ευθύνη ή νομική υποχρέωση, είπε.
Ένα «ανεπίλυτο» νομικό ζήτημα
Πολλοί άνθρωποι φαίνεται να στρέφονται προς τα μεγάλα γλωσσικά μοντέλα — παραδείγματα των οποίων περιλαμβάνουν το ChatGPT της OpenAI, το Claude της Anthropic και το Gemini της Google — για χρηματοοικονομικές συμβουλές.
Τα δύο τρίτα των Αμερικανών, ή το 66%, που έχουν χρησιμοποιήσει γενετική τεχνητή νοημοσύνη (GenAI) δηλώνουν ότι την έχουν χρησιμοποιήσει για χρηματοοικονομικές συμβουλές, σύμφωνα με μια έρευνα της Intuit Credit Karma που δημοσιεύθηκε τον Σεπτέμβριο. Το ποσοστό αυτό αυξάνεται στο 82% για τους millennials και τη Γενιά Ζ.
Περίπου το 85% των ερωτηθέντων που έχουν χρησιμοποιήσει GenAI για χρηματοοικονομικές συμβουλές ενήργησαν βάσει των συστάσεων που τους δόθηκαν, σύμφωνα με την έρευνα, στην οποία συμμετείχαν 1.019 ενήλικες.
«Οι άνθρωποι αναζητούν αυτές τις υπηρεσίες για κάθε είδους συμβουλές, και τις λαμβάνουν, και αυτό φαίνεται να αποτελεί ένα μεγάλο ανοιχτό ρυθμιστικό ζήτημα», δήλωσε ο Sebastian Benthall, ανώτερος ερευνητής στο Information Law Institute της Νομικής Σχολής του Πανεπιστημίου της Νέας Υόρκης.
«Ποιος είναι πραγματικά υπεύθυνος, και μπορούν οι άνθρωποι να βασίζονται πραγματικά σε ένα προϊόν για να το κάνουν αυτό, αν δεν υποστηρίζεται από μια εταιρεία με καθήκον εμπιστοσύνης;» είπε ο Benthall. «Είναι πραγματικά ένα άλυτο ζήτημα.»
Γιατί δεν πρέπει να εμπιστεύεστε τυφλά την τεχνητή νοημοσύνη — ή τους ανθρώπους
Ωστόσο, υπάρχουν κάποιες καλές περιπτώσεις χρήσης της τεχνητής νοημοσύνης στον χρηματοοικονομικό σχεδιασμό, είπε ο Lo.
Η τεχνητή νοημοσύνη είναι «πραγματικά καλή» στο να παρέχει διαδικτυακούς πόρους για διάφορες χρηματοοικονομικές έννοιες που οι απλοί άνθρωποι δεν κατανοούν, είπε ο Lo. Για παράδειγμα, αν κάποιος αναζητούσε απαντήσεις σε βασικές ερωτήσεις σχετικά με το Medicare, η τεχνητή νοημοσύνη μπορεί γενικά να παρέχει μια αξιόπιστη επισκόπηση, είπε.
Ενώ τα αποτελέσματα της τεχνητής νοημοσύνης είναι εξελιγμένα από πολλές χρηματοοικονομικές απόψεις, οι καταναλωτές γενικά δεν πρέπει να εμπιστεύονται τυφλά τις απαντήσεις σε ερωτήσεις σχετικά με τα οικονομικά του νοικοκυριού τους, είπε ο Lo.
«Όταν πρόκειται για πολύ, πολύ συγκεκριμένους υπολογισμούς της προσωπικής σας κατάστασης, εκεί πρέπει να είστε πολύ, πολύ προσεκτικοί», είπε. «Ένα από τα πράγματα σχετικά με τα LLM που θεωρώ ιδιαίτερα ανησυχητικό είναι ότι, ανεξάρτητα από το τι ρωτάτε, θα σας δίνει πάντα μια απάντηση που ακούγεται αξιόπιστη, ακόμα κι αν δεν είναι.»
Με αυτή την έννοια, ο διπλός και τριπλός έλεγχος των απαντήσεων της τεχνητής νοημοσύνης είναι «πραγματικά απαραίτητος», είπε.
Ίσως να προκαλεί έκπληξη, αλλά η τεχνητή νοημοσύνη δεν είναι καλή στους οικονομικούς υπολογισμούς, είπε ο Lo — οπότε γενικά είναι καλύτερο να αποφεύγετε οποιεσδήποτε ερωτήσεις οικονομικού σχεδιασμού που βασίζονται σε αριθμούς και αφορούν, για παράδειγμα, τους φόρους σας.
Ο James Burnham, υπεύθυνος νομικών και κυβερνητικών υποθέσεων στην xAI του Elon Musk, είπε σε μια ανάρτηση στα κοινωνικά μέσα τον Μάρτιο ότι η πλατφόρμα τεχνητής νοημοσύνης της εταιρείας, το Grok, «δεν παρέχει φορολογικές συμβουλές, οπότε πάντα επιβεβαιώστε και εσείς οι ίδιοι».
Φυσικά, πολλοί ανθρώπινοι χρηματοοικονομικοί σύμβουλοι παρέχουν συμβουλές στους πελάτες, και στη συνέχεια εναπόκειται στον πελάτη να αποφασίσει αν θα τις εφαρμόσει.
«Νομίζω ότι έτσι θα έβλεπα τα LLM: Μπορούν να είναι πολύ, πολύ χρήσιμα στο να παρέχουν διαφορετικές επιλογές και στο να περιγράφουν πώς αυτές οι επιλογές μπορεί να λειτουργήσουν, αλλά πρέπει πάντα να θυμάστε ότι οι συμβουλές που μπορούν να σας δώσουν μπορεί να είναι λάθος», είπε ο Lo.
«Αλλά θα υποστήριζα ότι αυτό ισχύει και για τους ανθρώπινους χρηματοοικονομικούς συμβούλους», πρόσθεσε.
Δεν είναι όλοι οι ανθρώπινοι σύμβουλοι θεματοφύλακες
Ούτε όλοι οι ανθρώπινοι χρηματοοικονομικοί σύμβουλοι είναι θεματοφύλακες.
Το τοπίο της χρηματοοικονομικής συμβουλευτικής είναι ένα ναρκοπέδιο διαφορετικών νομικών σχέσεων. Αυτές οι νομικές υποχρεώσεις μπορεί να διαφέρουν ανάλογα με παράγοντες όπως το αν το άτομο με το οποίο μιλάει ο καταναλωτής είναι χρηματιστής, εγγεγραμμένος επενδυτικός σύμβουλος, ασφαλιστικός πράκτορας ή άλλος ενδιάμεσος.
Για παράδειγμα, ένας κανόνας του Υπουργείου Εργασίας των ΗΠΑ που εκδόθηκε κατά τη διάρκεια της κυβέρνησης Μπάιντεν επεδίωξε να επιβάλει καθήκον εμπιστοσύνης στους μεσάζοντες που συνιστούσαν τη μεταφορά χρημάτων από ένα πρόγραμμα 401(k) σε έναν ατομικό λογαριασμό συνταξιοδότησης, μια κίνηση που μπορεί να αφορά εκατοντάδες χιλιάδες δολάρια.
Ωστόσο, αυτός ο κανόνας πρόσφατα καταργήθηκε αφού η κυβέρνηση Τραμπ σταμάτησε να τον υπερασπίζεται στο δικαστήριο — πράγμα που σημαίνει ότι πολλοί χρηματοοικονομικοί μεσάζοντες δεν υπόκεινται σε καθήκον εμπιστοσύνης όσον αφορά τις συμβουλές μεταφοράς. Ως αποτέλεσμα, νομικοί εμπειρογνώμονες συνιστούν στους καταναλωτές να προσεγγίζουν τέτοιες συστάσεις μεταφοράς με προσοχή, λόγω του ενδεχόμενου σύγκρουσης συμφερόντων.
Ο Benthall, του Πανεπιστημίου της Νέας Υόρκης, πρότεινε ένα παρόμοιο νομικό δίλημμα σχετικά με τις συμβουλές τεχνητής νοημοσύνης: Δεδομένου ότι οι γίγαντες της τεχνητής νοημοσύνης αυτή τη στιγμή εδρεύουν κυρίως στις ΗΠΑ, αν μια τεχνητή νοημοσύνη πρότεινε στους επενδυτές να επενδύσουν τις αποταμιεύσεις συνταξιοδότησής τους σε μετοχές των ΗΠΑ, αυτή η συμβουλή θα μπορούσε να θεωρηθεί ως αυτοσυναλλαγή ή ως οικονομική σύγκρουση συμφερόντων.
Ωστόσο, οι εταιρείες που παρέχουν υπηρεσίες τεχνητής νοημοσύνης δεν φαίνεται να λαμβάνουν αμοιβή για τις συμβουλές τους προς τους ιδιώτες επενδυτές και, ως εκ τούτου, δεν είναι θεματοφύλακες, δήλωσε η Jiaying Jiang, αναπληρώτρια καθηγήτρια νομικής στο Levin College of Law του Πανεπιστημίου της Φλόριντα, η οποία ερευνά την τεχνητή νοημοσύνη και το καθήκον εμπιστοσύνης.
Ωστόσο, οι χρηματοοικονομικοί σύμβουλοι που έχουν καθήκον εμπιστοσύνης έναντι των πελατών τους θα μπορούσαν να παραβιάσουν αυτό το καθήκον χρησιμοποιώντας τεχνητή νοημοσύνη, δήλωσε η Jiang.
Για παράδειγμα, εάν ένας σύμβουλος χρησιμοποιεί τεχνητή νοημοσύνη για να δώσει μια συγκεκριμένη σύσταση σε έναν πελάτη, αλλά η σύσταση αυτή δεν είναι προς το συμφέρον του πελάτη, τότε ο σύμβουλος — και όχι η εταιρεία που υποστηρίζει την πλατφόρμα τεχνητής νοημοσύνης — θα φέρει την ευθύνη, δήλωσε η Jiang.
Τελικά, ο Lo δήλωσε ότι πιστεύει ότι η κυβερνητική πολιτική πρέπει να αλλάξει ώστε να παρέχει εμπιστευτική προστασία στους καταναλωτές που λαμβάνουν χρηματοοικονομικές συμβουλές από την τεχνητή νοημοσύνη.
Μέχρι τότε, «δεν θα φτάσουμε στο σημείο όπου θα μπορούμε να αναθέσουμε πλήρως αυτές τις [οικονομικές] αποφάσεις», δήλωσε ο Lo.
«Πιστεύω όμως ότι αυτό θα συμβεί τελικά», πρόσθεσε.
Απόδοση – Επιμέλεια: Τατιανή Σάγιεχ







