Οι πράκτορες προσομοίωσης (simulation agents) είναι ψηφιακές οντότητες που έχουν σχεδιαστεί για να μιμούνται ανθρώπινες συμπεριφορές, προσωπικότητες ή διαδικασίες μέσα σε ένα ψηφιακό περιβάλλον. Αυτοί οι πράκτορες μαθαίνουν και εξελίσσονται ανάλογα με τα δεδομένα που λαμβάνουν. Τώρα ερευνητές από την Google και το Πανεπιστήμιο του Στάνφορντ δημιούργησαν πράκτορες προσομοίωσης», δηλαδή αντίγραφα τεχνητής νοημοσύνης (AI) από 1.052 ανθρώπους, με βάση δίωρες συνεντεύξεις με κάθε συμμετέχοντα.

Η ερευνητική ομάδα διεξήγαγε συνεντεύξεις σε βάθος που κάλυψαν τις ιστορίες ζωής, τις αξίες και τις απόψεις των συμμετεχόντων για τα κοινωνικά ζητήματα – γεγονός που επέτρεψε στην τεχνητή νοημοσύνη να αντλήσει στοιχεία του χαρακτήρα που θα μπορούσαν να ξεφύγουν από τις τυπικές έρευνες ή τα δημογραφικά δεδομένα.

Οι συνεντεύξεις αυτές χρησιμοποιήθηκαν για την εκπαίδευση ενός μοντέλου παραγωγικής τεχνητής νοημοσύνης (generative AI) που σχεδιάστηκε για να μιμείται την ανθρώπινη συμπεριφορά. Για να αξιολογηθεί η ακρίβεια των αντιγράφων, οι συμμετέχοντες πέρασαν από δύο γύρους τεστ προσωπικότητας, κοινωνικής έρευνας και παιχνιδιών λογικής. Η διαδικασία επαναλήφθηκε 2 εβδομάδες αργότερα.

Μοντέλα AI μπορούν να αντιγράψουν την προσωπικότητά μας σε 2 ώρες

Σύμφωνα με τη μελέτη που δημοσιεύθηκε στη βάση δεδομένων arXiv του Πανεπιστημίου Κορνέλ, όταν τα αντίγραφα υποβλήθηκαν στις ίδιες δοκιμασίες, ταίριαξαν τις απαντήσεις των συμμετεχόντων με ακρίβεια 85%.

Οι πράκτορες προσωμοίωσης είχαν ιδιαίτερα καλές επιδόσεις στην αναπαραγωγή των ανθρώπινων απαντήσεων σε έρευνες προσωπικότητας και στον προσδιορισμό των κοινωνικών στάσεων, αλλά ήταν λιγότερο ακριβείς στην πρόβλεψη συμπεριφορών σε διαδραστικά παιχνίδια που αφορούσαν τη λήψη οικονομικών αποφάσεων.

Σε τι χρησιμεύουν οι πράκτορες προσομοίωσης;

Η τεχνολογία θα μπορούσε να μας επιτρέψει να μελετήσουμε πτυχές της ανθρώπινης συμπεριφοράς με τρόπους που ήταν προηγουμένως ανέφικτοι, παρέχοντας ένα εξαιρετικά ελεγχόμενο περιβάλλον δοκιμών χωρίς τις ηθικές, υλικοτεχνικές ή διαπροσωπικές προκλήσεις της εργασίας με ανθρώπους, σε διάφορους τομείς:

  • Εκπαίδευση και κατάρτιση: Για την προσομοίωση καταστάσεων, όπως π.χ. σε προγράμματα εκπαίδευσης πιλότων ή γιατρών.
  • Ψηφιακοί συνομιλητές: Πράκτορες που μιμούνται τη συμπεριφορά ή τον τρόπο ομιλίας ενός συγκεκριμένου ατόμου.
  • Προβλέψεις και ανάλυση: Στη μελέτη κοινωνικών συστημάτων, αγορών ή συμπεριφοράς πληθυσμών.
  • Ψυχαγωγία: Σε βιντεοπαιχνίδια, όπου οι χαρακτήρες λειτουργούν με αυτονομία και προσαρμόζονται στις ενέργειες του παίκτη.

Ο επικεφαλής συγγραφέας της μελέτης Τζουν Σουνγκ Παρκ δήλωσε στο MIT Technology Review: «Μπορούμε να έχουμε ένα μάτσο αντίγραφα του εαυτού μας που παίρνουν τις αποφάσεις που θα παίρναμε εμείς οι ίδιοι – αυτό, νομίζω, είναι τελικά το μέλλον».

Ηθικά ζητήματα

Μιλάμε για ένα πεδίο που αναπτύσσεται ραγδαία, με τεράστιες δυνατότητες αλλά και σοβαρές προκλήσεις.

Πώς διασφαλίζεται ότι τα δεδομένα προσωπικότητας δεν θα χρησιμοποιηθούν χωρίς συναίνεση; Τι συμβαίνει όταν ένας πράκτορας αποφασίζει για λογαριασμό ενός ατόμου που δεν είναι παρόν;

Οι ερευνητές πάντως αναγνωρίζουν τη δυνατότητα κατάχρησης της συγκεκριμένης τεχνολογίας. Η τεχνητή νοημοσύνη και οι τεχνολογίες deepfake χρησιμοποιούνται ήδη από κακόβουλους φορείς για να εξαπατήσουν και να χειραγωγήσουν άλλους ανθρώπους στο διαδίκτυο, και οι πράκτορες προσομοίωσης θα μπορούσαν, επίσης, να χρησιμοποιηθούν καταχρηστικά.