📖 Διαβάστε περισσότερα: ChatGPT σε Ρομπότ: AI Εγκέφαλος για Μηχανές
🚀 Claude στον Άρη: Η Πρώτη Οδήγηση AI σε Άλλο Πλανήτη
Στις 8 και 10 Δεκεμβρίου 2025 (Sol 1707 και Sol 1709 αντίστοιχα), μηχανικοί στο Jet Propulsion Laboratory (JPL) της NASA χρησιμοποίησαν το Claude για να σχεδιάσουν τα σημεία πλοήγησης (waypoints) του Perseverance σε ένα πεδίο βράχων στην επιφάνεια του Άρη. Δεν ήταν απόμακρος έλεγχος σε πραγματικό χρόνο — ήταν σχεδιασμός διαδρομής εκ των προτέρων, σε τμήματα των 10 μέτρων.
Η Anthropic ανακοίνωσε το «Claude on Mars» στις 30 Ιανουαρίου 2026. Η διαδρομή ήταν περίπου 400 μέτρα. Το Claude, μέσω του εργαλείου Claude Code, ανέλυσε εναέριες εικόνες του Άρη με τις ικανότητες όρασης (vision) του μοντέλου, σχεδίασε «ίχνη ψωμιού» (breadcrumb trail) σημείο-σημείο, και έγραψε εντολές σε Rover Markup Language (RML) — μια εξειδικευμένη γλώσσα βασισμένη σε XML που αναπτύχθηκε αρχικά για τις αποστολές Mars Exploration Rover.
Τα σημεία πλοήγησης πέρασαν από προσομοίωση που μοντελοποίησε πάνω από 500.000 μεταβλητές — θέσεις rover, κλίσεις εδάφους, πιθανούς κινδύνους. Οι μηχανικοί του JPL χρειάστηκε να κάνουν μόνο μικρές διορθώσεις (π.χ. χωρισμός διαδρομής σε σημείο όπου κάμερες εδάφους έδειξαν κυματισμούς άμμου). Η εκτίμηση του JPL: το Claude θα κόψει στο μισό τον χρόνο σχεδιασμού διαδρομής.
«Αυτόνομα AI συστήματα θα μπορούσαν να βοηθήσουν ανιχνευτές να εξερευνήσουν ακόμα πιο μακρινά μέρη του ηλιακού συστήματος.»
— Anthropic, «Claude on Mars», 30 Ιανουαρίου 2026🐾 Spot + ChatGPT: Ο Ρομποτικός Σκύλος Ξεναγός
Η πιο χαρακτηριστική επίδειξη LLM + ρομποτικού σκύλου δεν ήρθε από την Anthropic — ήρθε από τη Boston Dynamics. Τον Οκτώβριο 2023, οι μηχανικοί της εταιρείας δημοσίευσαν λεπτομερές blog post με τίτλο «Robots That Can Chat» στο οποίο περιέγραφαν πώς μετέτρεψαν τον τετράποδο ρομπότ Spot σε αυτόνομο ξεναγό των εγκαταστάσεων τους στο Waltham, Massachusetts.
Πώς Δούλευε
Η αρχιτεκτονική ήταν εντυπωσιακά απλή στη βάση της:
ChatGPT (GPT-3.5/4)
Ο εγκέφαλος: λαμβάνει πληροφορίες κατάστασης και αποφασίζει τι θα κάνει ο Spot — πού θα πάει, τι θα πει, τι θα ρωτήσει.
📖 Διαβάστε περισσότερα: Atlas στα Εργοστάσια Hyundai: Ξεκινά το 2028
BLIP-2 Vision
Ο Spot κοιτάζει μέσω κάμερας στην αρπάγη (gripper camera). Το BLIP-2 μετατρέπει εικόνες σε περιγραφές κειμένου.
Whisper + ElevenLabs
OpenAI Whisper μετατρέπει ομιλία σε κείμενο. ElevenLabs δίνει στον Spot φωνή με εκφράσεις προσωπικότητας.
Απλό API
Τρεις εντολές: go_to(), say(), ask(). Το ChatGPT λαμβάνει λίστα τοποθεσιών και αποφασίζει ποια εντολή θα εκτελέσει.
Το πιο εντυπωσιακό ήταν η αναδυόμενη συμπεριφορά: όταν κάποιος ρώτησε «ποιος είναι ο Marc Raibert;» (ιδρυτής της Boston Dynamics), ο Spot αποφάσισε μόνος του να πάει στο IT help desk να ρωτήσει. Όταν τον ρώτησαν για τους «γονείς» του, πήγε στο σημείο όπου εκτίθενται τα BigDog και Spot V1. Κανείς δεν τον είχε προγραμματίσει γι' αυτές τις αποφάσεις.
«Ένας κόσμος στον οποίο τα ρομπότ μπορούν γενικά να καταλαβαίνουν τι τους λες και να το μετατρέπουν σε χρήσιμη δράση, μάλλον δεν είναι τόσο μακριά.»
— Boston Dynamics, «Robots That Can Chat», Οκτώβριος 2023🖥️ Computer Use: Η Γέφυρα Κειμένου-Δράσης
Πώς ένα μοντέλο γλώσσας μπορεί να ελέγχει φυσικό ρομπότ; Η απάντηση βρίσκεται σε μια ικανότητα που η Anthropic ονόμασε Computer Use, που κυκλοφόρησε σε δημόσιο beta τον Οκτώβριο 2024 μαζί με το αναβαθμισμένο Claude 3.5 Sonnet.
Η ιδέα: το Claude μπορεί να κοιτάξει μια οθόνη, να μετακινήσει τον κέρσορα, να κάνει κλικ σε κουμπιά, και να πληκτρολογήσει κείμενο — ακριβώς όπως ένας άνθρωπος χρησιμοποιεί υπολογιστή. Εκπαιδεύτηκε να ερμηνεύει screenshots και να μετράει pixels για ακριβή τοποθέτηση κέρσορα. Στο benchmark OSWorld (screenshot-only), σκόραρε 14,9% — σχεδόν διπλάσιο από το επόμενο καλύτερο AI σύστημα (7,8%).
📖 Διαβάστε περισσότερα: Amazon Ρομπότ Αποθηκών: Αντικαθιστούν Εργάτες;
Γιατί αυτό σχετίζεται με ρομποτική; Γιατί δείχνει ότι ένα LLM μπορεί να κάνει τον κύκλο αντίληψη → κρίση → δράση — βλέπει οπτική πληροφορία, σκέφτεται τι πρέπει να γίνει, και εκτελεί ακριβείς κινήσεις. Αυτός είναι ο ίδιος κύκλος που χρειάζεται ένα ρομπότ. Στον Άρη, το Claude έκανε ακριβώς αυτό: κοίταξε εναέριες εικόνες, σκέφτηκε τα σημεία πλοήγησης, και έγραψε εντολές ελέγχου.
📚 Χρονολόγιο: LLMs στη Ρομποτική
🔬 Πώς Δουλεύει: LLM ως Εγκέφαλος Ρομπότ
Η βασική ιδέα πίσω από κάθε project «LLM + ρομπότ» είναι η ίδια: χώρισε τη σκέψη από τη δράση. Το LLM δεν ελέγχει απευθείας μοτέρ ή σερβοκινητήρες. Αντίθετα, λειτουργεί σε τρία επίπεδα:
- Αντίληψη: Λαμβάνει δεδομένα — εικόνες κάμερας, δεδομένα αισθητήρων, ή περιγραφές κατάστασης σε κείμενο
- Σχεδιασμός: Αποφασίζει τι πρέπει να γίνει — ποια εργασία, πού να πάει, πώς να χειριστεί ένα αντικείμενο
- Εκτέλεση: Παράγει εντολές σε γλώσσα που καταλαβαίνει ο ρομπότ — κώδικα Python, ROS commands, RML, ή API calls
Στην πράξη, μεταξύ σχεδιασμού και εκτέλεσης παρεμβαίνει ένα σύστημα ασφαλείας — ανθρώπινη επιβεβαίωση, φυσική προσομοίωση, ή Robot Constitution (όπως στο AutoRT). Κανένα σοβαρό project δεν αφήνει το LLM να στέλνει ακατέργαστες εντολές σε κινητήρες.
Γιατί Μεσολαβεί Πάντα Προσομοίωση
Τα LLMs κάνουν «ψευδαισθήσεις» (hallucinations) — παράγουν plausible αλλά λανθασμένες απαντήσεις. Σε chatbot, μια ψευδαίσθηση είναι ενοχλητική. Σε ρομπότ που κινείται σε πραγματικό χώρο, μπορεί να είναι καταστροφική. Γι' αυτό στον Άρη, τα waypoints του Claude πέρασαν από προσομοίωση 500.000+ μεταβλητών πριν φτάσουν στο Perseverance.
📖 Διαβάστε περισσότερα: Atlas vs Optimus: Ποιο Ανθρωποειδές Κερδίζει;
📊 Η Anthropic Σήμερα
Η Anthropic ιδρύθηκε το 2021 από τους Dario και Daniela Amodei, πρώην στελέχη της OpenAI. Στον Φεβρουάριο 2026, η εταιρεία:
Οι κύριοι επενδυτές — Amazon ($8B), Google ($2B+), NVIDIA & Microsoft ($15B) — δείχνουν ότι η Anthropic δεν είναι απλώς εταιρεία chatbot. Το Claude Opus 4.6 (Φεβρουάριος 2026) υποστηρίζει context window 1 εκατ. tokens, 128.000 output tokens, και πρωταγωνιστεί σε agentic coding, computer use, και tool use benchmarks.
🔮 Πού Πάει Αυτό
Η τάση είναι σαφής: τα LLMs μετακινούνται από τον ψηφιακό κόσμο στον φυσικό. Σήμερα, το Claude οδηγεί rover στον Άρη. Το ChatGPT κάνει τον Spot ξεναγό. Τα Vision-Language-Action models της Google ελέγχουν δεκάδες ρομπότ ταυτόχρονα. Κάθε ένα από αυτά ήταν αδιανόητο πριν 3 χρόνια.
Η Anthropic δεν έχει ανακοινώσει (ακόμα) επίσημη συνεργασία με κατασκευαστή ρομποτικών τετράποδων — αλλά η τεχνολογία υπάρχει ήδη. Το ROS 2 API του Unitree Go2 ($1.600), τα SDKs της Boston Dynamics, η ανοιχτή αρχιτεκτονική του Xiaomi CyberDog — αυτά τα hardware περιμένουν ήδη «εγκέφαλο». Η ερώτηση δεν είναι αν θα δούμε Claude ή αντίστοιχο LLM να ελέγχει ρομπότ-σκύλο σε πραγματικό σπίτι — αλλά πότε.
LLM-Powered Robotics: Ποιος Κάνει Τι
| Εταιρεία / Lab | Project | Ρομπότ | LLM |
|---|---|---|---|
| Anthropic / NASA JPL | Claude on Mars | Perseverance Rover | Claude (Code) |
| Boston Dynamics | Robots That Can Chat | Spot (τετράποδο) | GPT-3.5/4 |
| Google DeepMind | RT-2 / AutoRT | Everyday Robots | PaLM-E, VLA |
| Figure AI + OpenAI | Figure 02 | Ανθρωποειδές | GPT-4V |
| Microsoft Research | ChatGPT for Robotics | Διάφορα (framework) | ChatGPT |
Αυτό που κάνει τα LLMs μοναδικά χρήσιμα στη ρομποτική δεν είναι ότι «ξέρουν» πώς κινείται ένα ρομπότ — είναι ότι μπορούν να γενικεύσουν. Ένα παραδοσιακό ρομποτικό σύστημα πρέπει να εκπαιδευτεί σε κάθε νέα εργασία. Ένα LLM μπορεί να μεταφέρει γνώση από κείμενο, εικόνες, και εμπειρία σε εντελώς νέα σενάρια — ακριβώς όπως το RT-2 της Google είδε 62% επιτυχία σε εργασίες που δεν είχε ξαναδεί ποτέ.
Η Anthropic με το Claude on Mars έδειξε ότι δεν χρειάζεσαι εξειδικευμένο ρομποτικό μοντέλο — ένα LLM γενικής χρήσης μπορεί να μάθει μια ολόκληρη ρομποτική γλώσσα (RML) και να γράψει σωστές εντολές. Αυτή η ικανότητα ισχύει εξίσου για quadruped SDKs, ρομποτικούς βραχίονες, ή drones. Ο εγκέφαλος είναι έτοιμος. Περιμένει σώμα.
