13
Επιστήμη & Έρευνα

Γνώρισε το ρομπότ που ξέρει πότε πρέπει να ζητήσει βοήθεια

Γνώρισε το ρομπότ που ξέρει πότε πρέπει να ζητήσει βοήθεια
Τα ρομπότ στο μέλλον θα καταλαβαίνουν πότε χρειάζεται να ζητήσουν βοήθεια. Δες το πρώτο που καταλαβαίνει πότε… δεν καταλαβαίνει!

Φαντάσου ένα ρομπότ – ανθρωπόμορφο ή και όχι – το οποίο έχεις για οικιακό βοηθό. Του λες να σου φέρει ένα αναψυκτικό. Το ρομπότ θα πρέπει να καταλάβει πως θα πρέπει να πάει στην κουζίνα, να εντοπίσει το ψυγείο, να το ανοίξει, να εντοπίσει το αναψυκτικό, και να στο φέρει. Αυτό είναι κάτι που μπορεί να κάνει ένας οποιoσδήποτε άνθρωπος, ακόμη κι ένα μικρό παιδί. Στον κόσμο των ρομπότ (και του προγραμματισμού), όμως, ακολουθώντας τις συμβατικές μεθόδους προγραμματισμού, θα πρέπει να υπάρχει κώδικας για όλα τα βήματα, και μάλιστα με πολύ μεγαλύτερη λεπτομέρεια. Η καθημερινότητά μας είναι γεμάτη από ελλιπείς εντολές, τις οποίες όμως ο ανθρώπινος νους δεν έχει πρόβλημα να συμπληρώσει ή να εκμαιεύσει με κοινή λογική.

Αν θέλουμε, όμως, να φτιάξουμε ρομπότ τα οποία να είναι σε θέση να λειτουργήσουν στον καθημερινό κόσμο και ειδικά σε μη ελεγχόμενα περιβάλλοντα, όπως αυτό ενός σπιτιού, θα πρέπει να τα εφοδιάσουμε με συστήματα που μπορούν να “καταλάβουν” τις εντολές, να συμπληρώσουν βήματα όπου χρειάζεται, και να ρωτήσουν όταν υπάρχει ασάφεια.

Ένα νέο μοντέλο εκπαίδευσης ονόματι “KnowNo” έρχεται για να δώσει ακριβώς αυτή την ικανότητα στα ρομπότ: το να ρωτήσουν όταν οι εντολές δεν είναι αρκετά σαφείς, αλλά χωρίς να γίνονται ενοχλητικά ρωτώντας για το παραμικρό. Η νέα προσέγγιση έρχεται να καλύψει αυτό το κενό, μιας και μέχρι τώρα τα ρομπότ έχουν πρόβλημα σε εργασίες που απαιτούν κοινή λογική.

Ένα άλλο παράδειγμα θα ήταν να έχεις στο τραπέζι της κουζίνας δύο πιάτα, ένα με φαγητό και ένα άδειο. Δίνοντας την εντολή “βάλε το πιάτο στον φούρνο μικροκυμάτων”, το ρομπότ θα πρέπει να καταλάβει πως το εν λόγω πιάτο δεν είναι το άδειο – κάτι προφανές σε οποιονδήποτε άνθρωπο. Όπως και στην περίπτωση του αναψυκτικού, το ρομπότ θα πρέπει να ξέρει πως η θέση των αναψυκτικών είναι στην κουζίνα και ειδικότερα μέσα στο ψυγείο.

Για κάτι τέτοιο, τα LLM (Large Language Models) είναι ιδανικά μιας και στην εκπαίδευσή τους εμπεριέχεται πολλή γνώση του είδους της κοινής λογικής. Αυτό, όμως, είναι απλά το πρώτο βήμα, το οποίο βρίσκεται ήδη σε χρήση. Τι γίνεται όταν η πραγματικότητα δεν αντιστοιχεί στις προβλέψεις του LLM, όμως; Αν το ψυγείο δεν είναι στην κουζίνα; Ή αν τα αναψυκτικά δεν είναι στο ψυγείο; Σε αυτές τις περιπτώσεις, το ρομπότ πρέπει να ζητήσει τη βοήθεια κάποιου ανθρώπου. Κι αυτό είναι το επίπεδο του KnowNo, το οποίο συνδυάζει τα αποτελέσματα των LLMs με στατιστικά εργαλεία τα οποία ποσοτικοποιούν τα επίπεδα αξιοπιστίας.

Σε μια εντολή του τύπου “βάλε το πιάτο στον φούρνο μιρκοκυμάτων”, το KnowNo πρώτα παράγει πολλές πιθανές πορείες δράσης μέσω LLMs, αλλά έπειτα δημιουργεί βαθμολογία αξιοπιστίας, προβλέποντας την πιθανότητα η κάθε πορεία να είναι η καλύτερη. Η βαθμολογία συγκρίνεται με ένα προκαθορισμένο όριο αξιοπιστίας, το οποίο καθορίζει το πόσο συντηρητικό θα είναι το ρομπότ στις κινήσεις του. Για παράδειγμα, ένα ρομπότ με ποσοστό επιτυχίας 80% θα πρέπει να παίρνει τις σωστές αποφάσεις τουλάχιστον το 80% των περιπτώσεων. Αυτό σηματοδοτεί και το ρίσκο σε κάθε απόφαση. Μπορεί ο χρήστης να επιθυμεί το ρομπότ που καθαρίζει το σπίτι να είναι πιο ανεξάρτητο και να παίρνει πρωτοβουλίες, έστω κι αν κάνει μικρά λάθη ενίοτε, αρκεί να μην χρειάζεται να το παρακολουθεί συνεχώς. Για ιατρικές εφαρμογές, όμως, το ρομπότ θα πρέπει να είναι πολύ προσεκτικό και να έχει το υψηλότερο δυνατό ποσοστό επιτυχίας.

Στις δοκιμές, το KnowNo εγκαταστάθηκε σε τρία ρομπότ και πάνω από 150 διαφορετικά σενάρια. Τα αποτελέσματα έδειξαν πως τα ρομπότ με το KnowNo είχαν μεγαλύτερη συνέπεια στα επιτυχημένα αποτελέσματα, αλλά και χρειάζονταν λιγότερη επίβλεψη και βοήθεια από τα ρομπότ που δεν είχαν το σύστημα αυτό.

Οι μελέτες έχουν δείξει πως οι άνθρωποι προτιμούν ρομπότ που κάνουν ερωτήσεις, μιας και αυτό αυξάνει την διαφάνεια και οδηγεί σε καλύτερη αλληλεπίδραση. Παρά την επιτυχία, υπάρχουν ακόμη περιθώρια βελτίωσης. Για παράδειγμα, το σύστημα υποθέτει πως το υποσύστημα όρασης είναι αξιόπιστο, το οποίο μπορεί να μην ισχύει πάντα. Επίσης δεν λαμβάνει υπ’ όψιν πως η ανθρώπινη βοήθεια μπορεί να είναι λανθασμένη.

Σε κάθε περίπτωση, το σύστημα αποτελεί ένα μεγάλο βήμα προς τα εμπρός, και μας κάνει πιο σίγουρους για το ότι, στο εγγύς μέλλον, τα ρομπότ θα μας βοηθούν και θα είναι ασφαλή!