← Επιστροφή στην κατηγορία Ρομπότ Claude AI ελέγχει το rover Perseverance στον Άρη και τον ρομποτικό σκύλο Spot - η νέα εποχή της AI ρομποτικής
🤖 Ρομποτική: AI Έλεγχος

Το Claude AI Οδηγεί Ρομπότ στον Άρη και στη Γη: Η Νέα Εποχή της AI Ρομποτικής

📅 17 Φεβρουαρίου 2026 ⏱️ 8 λεπτά ανάγνωσης
Στις 8 Δεκεμβρίου 2025, εντολές γραμμένες από τo Claude AI της Anthropic οδήγησαν το rover Perseverance σε μια διαδρομή 400 μέτρων πάνω στον Άρη — η πρώτη φορά που AI σχεδίασε οδήγηση σε άλλο πλανήτη. Λίγα χρόνια νωρίτερα, η Boston Dynamics είχε μετατρέψει τον ρομποτικό σκύλο Spot σε ξεναγό με ChatGPT. Το μοτίβο είναι ξεκάθαρο: τα μεγάλα γλωσσικά μοντέλα (LLMs) δεν γράφουν απλώς κείμενο — γίνονται ο εγκέφαλος φυσικών μηχανών.

📖 Διαβάστε περισσότερα: ChatGPT σε Ρομπότ: AI Εγκέφαλος για Μηχανές

🚀 Claude στον Άρη: Η Πρώτη Οδήγηση AI σε Άλλο Πλανήτη

Στις 8 και 10 Δεκεμβρίου 2025 (Sol 1707 και Sol 1709 αντίστοιχα), μηχανικοί στο Jet Propulsion Laboratory (JPL) της NASA χρησιμοποίησαν το Claude για να σχεδιάσουν τα σημεία πλοήγησης (waypoints) του Perseverance σε ένα πεδίο βράχων στην επιφάνεια του Άρη. Δεν ήταν απόμακρος έλεγχος σε πραγματικό χρόνο — ήταν σχεδιασμός διαδρομής εκ των προτέρων, σε τμήματα των 10 μέτρων.

Η Anthropic ανακοίνωσε το «Claude on Mars» στις 30 Ιανουαρίου 2026. Η διαδρομή ήταν περίπου 400 μέτρα. Το Claude, μέσω του εργαλείου Claude Code, ανέλυσε εναέριες εικόνες του Άρη με τις ικανότητες όρασης (vision) του μοντέλου, σχεδίασε «ίχνη ψωμιού» (breadcrumb trail) σημείο-σημείο, και έγραψε εντολές σε Rover Markup Language (RML) — μια εξειδικευμένη γλώσσα βασισμένη σε XML που αναπτύχθηκε αρχικά για τις αποστολές Mars Exploration Rover.

400m Διαδρομή στον Άρη
500.000+ Μεταβλητές προσομοίωσης
10m Τμήματα σχεδιασμού
50% Μείωση χρόνου σχεδιασμού

Τα σημεία πλοήγησης πέρασαν από προσομοίωση που μοντελοποίησε πάνω από 500.000 μεταβλητές — θέσεις rover, κλίσεις εδάφους, πιθανούς κινδύνους. Οι μηχανικοί του JPL χρειάστηκε να κάνουν μόνο μικρές διορθώσεις (π.χ. χωρισμός διαδρομής σε σημείο όπου κάμερες εδάφους έδειξαν κυματισμούς άμμου). Η εκτίμηση του JPL: το Claude θα κόψει στο μισό τον χρόνο σχεδιασμού διαδρομής.

«Αυτόνομα AI συστήματα θα μπορούσαν να βοηθήσουν ανιχνευτές να εξερευνήσουν ακόμα πιο μακρινά μέρη του ηλιακού συστήματος.»

— Anthropic, «Claude on Mars», 30 Ιανουαρίου 2026

🐾 Spot + ChatGPT: Ο Ρομποτικός Σκύλος Ξεναγός

Η πιο χαρακτηριστική επίδειξη LLM + ρομποτικού σκύλου δεν ήρθε από την Anthropic — ήρθε από τη Boston Dynamics. Τον Οκτώβριο 2023, οι μηχανικοί της εταιρείας δημοσίευσαν λεπτομερές blog post με τίτλο «Robots That Can Chat» στο οποίο περιέγραφαν πώς μετέτρεψαν τον τετράποδο ρομπότ Spot σε αυτόνομο ξεναγό των εγκαταστάσεων τους στο Waltham, Massachusetts.

Πώς Δούλευε

Η αρχιτεκτονική ήταν εντυπωσιακά απλή στη βάση της:

ChatGPT (GPT-3.5/4)

Ο εγκέφαλος: λαμβάνει πληροφορίες κατάστασης και αποφασίζει τι θα κάνει ο Spot — πού θα πάει, τι θα πει, τι θα ρωτήσει.

📖 Διαβάστε περισσότερα: Atlas στα Εργοστάσια Hyundai: Ξεκινά το 2028

BLIP-2 Vision

Ο Spot κοιτάζει μέσω κάμερας στην αρπάγη (gripper camera). Το BLIP-2 μετατρέπει εικόνες σε περιγραφές κειμένου.

Whisper + ElevenLabs

OpenAI Whisper μετατρέπει ομιλία σε κείμενο. ElevenLabs δίνει στον Spot φωνή με εκφράσεις προσωπικότητας.

Απλό API

Τρεις εντολές: go_to(), say(), ask(). Το ChatGPT λαμβάνει λίστα τοποθεσιών και αποφασίζει ποια εντολή θα εκτελέσει.

Το πιο εντυπωσιακό ήταν η αναδυόμενη συμπεριφορά: όταν κάποιος ρώτησε «ποιος είναι ο Marc Raibert;» (ιδρυτής της Boston Dynamics), ο Spot αποφάσισε μόνος του να πάει στο IT help desk να ρωτήσει. Όταν τον ρώτησαν για τους «γονείς» του, πήγε στο σημείο όπου εκτίθενται τα BigDog και Spot V1. Κανείς δεν τον είχε προγραμματίσει γι' αυτές τις αποφάσεις.

«Ένας κόσμος στον οποίο τα ρομπότ μπορούν γενικά να καταλαβαίνουν τι τους λες και να το μετατρέπουν σε χρήσιμη δράση, μάλλον δεν είναι τόσο μακριά.»

— Boston Dynamics, «Robots That Can Chat», Οκτώβριος 2023

🖥️ Computer Use: Η Γέφυρα Κειμένου-Δράσης

Πώς ένα μοντέλο γλώσσας μπορεί να ελέγχει φυσικό ρομπότ; Η απάντηση βρίσκεται σε μια ικανότητα που η Anthropic ονόμασε Computer Use, που κυκλοφόρησε σε δημόσιο beta τον Οκτώβριο 2024 μαζί με το αναβαθμισμένο Claude 3.5 Sonnet.

Η ιδέα: το Claude μπορεί να κοιτάξει μια οθόνη, να μετακινήσει τον κέρσορα, να κάνει κλικ σε κουμπιά, και να πληκτρολογήσει κείμενο — ακριβώς όπως ένας άνθρωπος χρησιμοποιεί υπολογιστή. Εκπαιδεύτηκε να ερμηνεύει screenshots και να μετράει pixels για ακριβή τοποθέτηση κέρσορα. Στο benchmark OSWorld (screenshot-only), σκόραρε 14,9% — σχεδόν διπλάσιο από το επόμενο καλύτερο AI σύστημα (7,8%).

📖 Διαβάστε περισσότερα: Amazon Ρομπότ Αποθηκών: Αντικαθιστούν Εργάτες;

Γιατί αυτό σχετίζεται με ρομποτική; Γιατί δείχνει ότι ένα LLM μπορεί να κάνει τον κύκλο αντίληψη → κρίση → δράση — βλέπει οπτική πληροφορία, σκέφτεται τι πρέπει να γίνει, και εκτελεί ακριβείς κινήσεις. Αυτός είναι ο ίδιος κύκλος που χρειάζεται ένα ρομπότ. Στον Άρη, το Claude έκανε ακριβώς αυτό: κοίταξε εναέριες εικόνες, σκέφτηκε τα σημεία πλοήγησης, και έγραψε εντολές ελέγχου.

📚 Χρονολόγιο: LLMs στη Ρομποτική

2022
Google SayCan
Η Google συνδύασε το PaLM LLM με ρομποτικές δεξιότητες. Το LLM προτείνει σχέδια υψηλού επιπέδου, ο ρομπότ-χειριστής αποφασίζει τι είναι φυσικά εφικτό. Δοκιμές σε κουζίνα με κινητό ρομπότ.
Φεβ 2023
Microsoft: ChatGPT for Robotics
Framework που χρησιμοποιεί ChatGPT για αυτόματη δημιουργία κώδικα ελέγχου ρομπότ. Ενέπνευσε άμεσα το project Spot+ChatGPT της Boston Dynamics.
Ιούλ 2023
Google DeepMind RT-2
Το πρώτο Vision-Language-Action (VLA) model. Εκπαιδεύτηκε σε κείμενο, εικόνες ΚΑΙ ρομποτικές τροχιές. Σε 6.000+ δοκιμές: διπλασίασε επιδόσεις σε καταστάσεις που δεν είχε δει — 62% vs. 32% του RT-1.
Οκτ 2023
Boston Dynamics: Spot + ChatGPT
Ο τετράποδος Spot γίνεται ξεναγός με GPT-3.5/4, Whisper, BLIP-2, ElevenLabs. Εμφάνισε αναδυόμενη συμπεριφορά.
Ιαν 2024
Google DeepMind AutoRT
Χρησιμοποίησε VLM+LLM για να κατευθύνει αυτόνομα 20 ρομπότ ταυτόχρονα. 7 μήνες λειτουργίας: 77.000 δοκιμές, 6.650 μοναδικές εργασίες, 52 ρομπότ. Ενσωματώνει «Σύνταγμα Ρομπότ» (Robot Constitution).
Οκτ 2024
Anthropic: Computer Use
Το Claude μαθαίνει να χρησιμοποιεί υπολογιστή σαν άνθρωπος — βλέπει, κινεί κέρσορα, κλικάρει, πληκτρολογεί. 14,9% στο OSWorld.
Δεκ 2025
Claude on Mars
Πρώτη AI-σχεδιασμένη οδήγηση σε άλλο πλανήτη. Claude σχεδιάζει 400 μέτρα διαδρομής για το Perseverance σε RML. Ανακοινώθηκε 30 Ιαν 2026.

🔬 Πώς Δουλεύει: LLM ως Εγκέφαλος Ρομπότ

Η βασική ιδέα πίσω από κάθε project «LLM + ρομπότ» είναι η ίδια: χώρισε τη σκέψη από τη δράση. Το LLM δεν ελέγχει απευθείας μοτέρ ή σερβοκινητήρες. Αντίθετα, λειτουργεί σε τρία επίπεδα:

  1. Αντίληψη: Λαμβάνει δεδομένα — εικόνες κάμερας, δεδομένα αισθητήρων, ή περιγραφές κατάστασης σε κείμενο
  2. Σχεδιασμός: Αποφασίζει τι πρέπει να γίνει — ποια εργασία, πού να πάει, πώς να χειριστεί ένα αντικείμενο
  3. Εκτέλεση: Παράγει εντολές σε γλώσσα που καταλαβαίνει ο ρομπότ — κώδικα Python, ROS commands, RML, ή API calls

Στην πράξη, μεταξύ σχεδιασμού και εκτέλεσης παρεμβαίνει ένα σύστημα ασφαλείας — ανθρώπινη επιβεβαίωση, φυσική προσομοίωση, ή Robot Constitution (όπως στο AutoRT). Κανένα σοβαρό project δεν αφήνει το LLM να στέλνει ακατέργαστες εντολές σε κινητήρες.

Γιατί Μεσολαβεί Πάντα Προσομοίωση

Τα LLMs κάνουν «ψευδαισθήσεις» (hallucinations) — παράγουν plausible αλλά λανθασμένες απαντήσεις. Σε chatbot, μια ψευδαίσθηση είναι ενοχλητική. Σε ρομπότ που κινείται σε πραγματικό χώρο, μπορεί να είναι καταστροφική. Γι' αυτό στον Άρη, τα waypoints του Claude πέρασαν από προσομοίωση 500.000+ μεταβλητών πριν φτάσουν στο Perseverance.

📖 Διαβάστε περισσότερα: Atlas vs Optimus: Ποιο Ανθρωποειδές Κερδίζει;

📊 Η Anthropic Σήμερα

Η Anthropic ιδρύθηκε το 2021 από τους Dario και Daniela Amodei, πρώην στελέχη της OpenAI. Στον Φεβρουάριο 2026, η εταιρεία:

$380B Αποτίμηση (Series G, Φεβ 2026)
$14B Ετήσια έσοδα (run-rate)
2.500 Υπάλληλοι
$30B Series G (Φεβ 2026)

Οι κύριοι επενδυτές — Amazon ($8B), Google ($2B+), NVIDIA & Microsoft ($15B) — δείχνουν ότι η Anthropic δεν είναι απλώς εταιρεία chatbot. Το Claude Opus 4.6 (Φεβρουάριος 2026) υποστηρίζει context window 1 εκατ. tokens, 128.000 output tokens, και πρωταγωνιστεί σε agentic coding, computer use, και tool use benchmarks.

🔮 Πού Πάει Αυτό

Η τάση είναι σαφής: τα LLMs μετακινούνται από τον ψηφιακό κόσμο στον φυσικό. Σήμερα, το Claude οδηγεί rover στον Άρη. Το ChatGPT κάνει τον Spot ξεναγό. Τα Vision-Language-Action models της Google ελέγχουν δεκάδες ρομπότ ταυτόχρονα. Κάθε ένα από αυτά ήταν αδιανόητο πριν 3 χρόνια.

Η Anthropic δεν έχει ανακοινώσει (ακόμα) επίσημη συνεργασία με κατασκευαστή ρομποτικών τετράποδων — αλλά η τεχνολογία υπάρχει ήδη. Το ROS 2 API του Unitree Go2 ($1.600), τα SDKs της Boston Dynamics, η ανοιχτή αρχιτεκτονική του Xiaomi CyberDog — αυτά τα hardware περιμένουν ήδη «εγκέφαλο». Η ερώτηση δεν είναι αν θα δούμε Claude ή αντίστοιχο LLM να ελέγχει ρομπότ-σκύλο σε πραγματικό σπίτι — αλλά πότε.

LLM-Powered Robotics: Ποιος Κάνει Τι

Εταιρεία / LabProjectΡομπότLLM
Anthropic / NASA JPLClaude on MarsPerseverance RoverClaude (Code)
Boston DynamicsRobots That Can ChatSpot (τετράποδο)GPT-3.5/4
Google DeepMindRT-2 / AutoRTEveryday RobotsPaLM-E, VLA
Figure AI + OpenAIFigure 02ΑνθρωποειδέςGPT-4V
Microsoft ResearchChatGPT for RoboticsΔιάφορα (framework)ChatGPT

Αυτό που κάνει τα LLMs μοναδικά χρήσιμα στη ρομποτική δεν είναι ότι «ξέρουν» πώς κινείται ένα ρομπότ — είναι ότι μπορούν να γενικεύσουν. Ένα παραδοσιακό ρομποτικό σύστημα πρέπει να εκπαιδευτεί σε κάθε νέα εργασία. Ένα LLM μπορεί να μεταφέρει γνώση από κείμενο, εικόνες, και εμπειρία σε εντελώς νέα σενάρια — ακριβώς όπως το RT-2 της Google είδε 62% επιτυχία σε εργασίες που δεν είχε ξαναδεί ποτέ.

Η Anthropic με το Claude on Mars έδειξε ότι δεν χρειάζεσαι εξειδικευμένο ρομποτικό μοντέλο — ένα LLM γενικής χρήσης μπορεί να μάθει μια ολόκληρη ρομποτική γλώσσα (RML) και να γράψει σωστές εντολές. Αυτή η ικανότητα ισχύει εξίσου για quadruped SDKs, ρομποτικούς βραχίονες, ή drones. Ο εγκέφαλος είναι έτοιμος. Περιμένει σώμα.

Claude AI Anthropic ρομπότ AI ρομποτική Perseverance Boston Dynamics Spot robot LLM Άρης ChatGPT