Μερικές 10ετίες πριν, ο ‘αραμπάς’ ήταν συνώνυμο με το όχημα που κινείται πάρα πολύ αργά. Τι σχέση έχει λοιπόν ο αραμπάς με τη Tesla.. Διαβάστε και θα σας λυθούν κάποιες απορίες.
Διαβάστε ακόμα
Εξαιρετικά δύσκολο εγχείρημα όσον αφορά την τελειοποίησή της αποδεικνύεται, ως τώρα, η αυτόνομη οδήγηση. Η όποια πρόοδος δεν έχει πείσει ακόμη και τους πιο φανατικούς οπαδούς του Elon Musk, του mr Tesla που έχει ποντάρει πολλά σε αυτόν τον τομέα. Και τώρα θυμόμαστε τα λόγια του μεγαλοστελέχους του BMW Group, Peter Schwarzenbauer, πριν από λίγα χρόνια στο Welt (Μόναχο), ότι «εδώ δεν παίζουμε», το θέμα είναι πολύπλοκο και οι σοβαρές αυτοκινητοβιομηχανίες πρέπει να βαδίσουν με συνετά και υπεύθυνα βήματα, χωρίς βιασύνη, διότι αφορά την ανθρώπινη ζωή πρωτίστως και μετά την περιουσία, το νομικό πλαίσιο κλπ.
«Θα σοκαριζόμασταν αν δεν καταστήσουμε την πλήρη αυτο-οδήγηση πιο ασφαλή από έναν άνθρωπο φέτος», δήλωνε ο διευθύνων σύμβουλος της Tesla, τον Ιανουάριο. Μια δήλωση που απλά επαναλαμβάνεται, με αλλαγή χρονιάς από καιρό.
Το 2020, υποσχέθηκε αυτόνομα αυτοκίνητα εντός του ίδιου έτους, αλλά λίγο μετά πρόσθετε ότι «δεν υπάρχουν θεμελιώδεις προκλήσεις».
Το 2019, υποσχόταν τα Tesla να μπορούν να πηγαίνουν μόνα τους μέχρι το 2020, δημιουργώντας ένα στόλο 1 εκατομμυρίου «ρομποταξί».
Παρόμοιες προβλέψεις έκανε κάθε χρόνο από το 2014…
Από τα τέλη του 2020, η Tesla ενέτεινε τις δοκιμές beta, του λογισμικού «Full Self-Driving» (FSD), σε περίπου 60.000 κατόχους μοντέλων της, οι οποίοι πρέπει να περάσουν ένα τεστ ασφαλείας και να πληρώσουν 12.000 δολάρια για το «προνόμιο» αυτό.
Συγκεκριμένα, οι πελάτες θα συμμετέχουν στην αυτοματοποιημένη τεχνολογία υποβοήθησης οδηγού, βοηθώντας ενεργά έτσι στη βελτίωση της πριν βγει στους δρόμους μαζικά.
Με το beta, η εταιρία βασίζεται στις οδηγίες των εταιρειών λογισμικού, «όπου η ιδέα είναι να κάνουν τους ανθρώπους να “εκκαθαρίσουν” τις στροφές», λέει ο Andrew Maynard, διευθυντής του εργαστηρίου καινοτομίας κινδύνου του Πανεπιστημίου της Αριζόνα.
«Η δυσκολία είναι ότι όταν ένα λογισμικό διακόπτεται, απλά επανεκκινείτε τον υπολογιστή. Όταν ένα αυτοκίνητο τρακάρει, όμως, είναι λίγο πιο …σοβαρό».
Η τοποθέτηση νέας τεχνολογίας στα χέρια ανεκπαίδευτων είναι μια ανορθόδοξη προσέγγιση για τη βιομηχανία αυτόνομων οχημάτων (AV).
Άλλες εταιρείες, όπως η Waymo που ανήκει στην Alphabet, η Cruise που υποστηρίζεται από τη General Motors και η AV Aurora, χρησιμοποιούν χειριστές ασφαλείας για να δοκιμάσουν την τεχνολογία σε προκαθορισμένες διαδρομές.
Αν και η κίνηση του Musk ενίσχυσε τα «λαϊκιστικά» διαπιστευτήρια της Tesla με τους τρελαμένους θαυμαστές της να σπεύδουν να συμμετάσχουν στο πρόγραμμα, έχει προκύψει, μάλλον, επικίνδυνη.
Από τότε που έδωσε την τεχνολογία του στα χέρια των ανθρώπων, μια σειρά βίντεο που τεκμηριώνουν την απερίσκεπτη συμπεριφορά του FSD έχει συγκεντρώσει πολλές προβολές στο διαδίκτυο.
Υπάρχει βίντεο ενός αυτοκινήτου σε λειτουργία FSD που εκτρέπεται απότομα προς την αντίθετη κυκλοφορία , «προτρέποντας» τον ίδιο τον οδηγό να βγει από το δρόμο σε ένα …χωράφι.
Άλλο δείχνει ένα αυτοκίνητο να προσπαθεί επανειλημμένα να επανεκκινήσει σε γραμμές τρένου και ενώ έχει σταματήσει μπροστά από πεζούς. Ένα άλλο απαθανατίζει τον οδηγό να παλεύει να ανακτήσει τον έλεγχο του αυτοκινήτου, αφού το σύστημα τον προτρέπει να πάρει το έλεγχο του τιμονιού. Και ένα ακόμη, που αφορούσε το πρώτο ατύχημα με FSD και το οποίο αναφέρθηκε στην Εθνική Υπηρεσία Ασφάλειας Οδικής Κυκλοφορίας των ΗΠΑ (NHTSA) το Νοέμβριο του περασμένου έτους. Κανείς δεν τραυματίστηκε, αλλά το όχημα υπέστη «σοβαρές ζημιές».
Το λογισμικό FSD είναι ικανό στην οδήγηση σε αυτοκινητόδρομους, όπου είναι «ευθεία, κυριολεκτικά», λέει ο Taylor Ogan, διευθύνων σύμβουλος της Snow Bull Capital, που έχει αποκτήσει το σύστημα της Tesla.
Σε πιο σύνθετους δρόμους στο κέντρο της πόλης, λέει ότι το σύστημα είναι ακόμη πιο απρόβλεπτο. Οι συνεχείς ενημερώσεις λογισμικού υποτίθεται ότι εξαλείφουν τις δυσλειτουργίες.
Για παράδειγμα, η NHTSA ανάγκασε την Tesla να εμποδίσει το σύστημα να εκτελεί παράνομες «κυλιόμενες στάσεις » (με αργή κίνηση, δηλαδή, με προοπτική στάσης, χωρίς ποτέ να σταματήσει τελείως), ενώ ένα περιστατικό «απροσδόκητου φρεναρίσματος» αποτελεί αντικείμενο τρέχουσας έρευνας. Ωστόσο, βάσει της εμπειρίας της δοκιμής FSD, συμπληρώνει ο Ogan, «δεν το έχω δει καν να βελτιώνεται, απλώς κάνει πιο …τρελά πράγματα με μεγαλύτερη αυτοπεποίθηση».
Ο Maynard υποστηρίζει ότι η μεταφορά του «οδηγού μαθητή» ισχύει για ορισμένα από τα ζητήματα του FSD, αλλά καταρρέει όταν η τεχνολογία εμπλέκεται σε αναμφισβήτητα μη ανθρώπινη συμπεριφορά.
Για παράδειγμα, η έλλειψη προσοχής στο να πλησιάζει επικίνδυνα τους πεζούς ή η στιγμή που ένα Tesla πήγαινε κατ’ ευθείαν σε μια κολόνα την οποία το FSD απέτυχε να καταγράψει. Παρόμοια προβλήματα έχουν προκύψει με το λογισμικό Autopilot της Tesla, το οποίο έχει εμπλακεί σε τουλάχιστον 12 ατυχήματα (με έναν θάνατο και 17 τραυματισμούς) λόγω του ότι τα αυτοκίνητα δεν μπορούν να «βλέπουν» σταθμευμένα οχήματα έκτακτης ανάγκης…
Υπάρχει λόγος να πιστεύουμε ότι τα βίντεο που βγαίνουν στο διαδίκτυο είναι μερικά από τα πιο κολακευτικά. Όχι μόνο οι δοκιμαστές είναι πελάτες της Tesla, αλλά και ένας στρατός «οπαδών» λειτουργεί ως επιπλέον αποτρεπτικός παράγοντας για να αποκαλυφθεί οτιδήποτε αρνητικό.
Οποιεσδήποτε αναφορές ότι το FSD συμπεριφέρεται άσχημα μπορεί να προκαλέσει ένα κύμα οργής. Κρίσιμες αναρτήσεις στο Tesla Motors Club, ένα φόρουμ για οδηγούς Tesla, χαιρετίζονται αναπόφευκτα από ανθρώπους που κατηγορούν τους χρήστες για ατυχήματα ή τους κατηγορούν ότι θέλουν να αποτύχει η Tesla… «Οι άνθρωποι φοβούνται ότι ο Elon Musk θα αφαιρέσει το FSD για το οποίο πλήρωσαν και ότι ο κόσμος θα τους επιτεθεί», λέει ο Ogan.