Записи с меткой ‘Tesla’

Водій і пасажир Tesla заснули за кермом на високій швидкості

У мережі знову з’явилися відео, на яких водії автомобілів Tesla сплять за кермом під час руху трасою. Нові випадки знову розпалили дискусію про межі використання систем допомоги водієві та про те, наскільки уважним повинен залишатися водій навіть у сучасному автомобілі з напівавтономними функціями.

Один із роликів, що швидко поширився в інтернеті, був опублікований на Reddit та Instagram. На ньому видно, як водійка електрокросовера Tesla Model X засинає за кермом, тоді як автомобіль продовжує рухатися швидкісною автомагістраллю у США. Чи була в цей момент активована система Tesla Autopilot або ж більш просунутий режим Tesla Full Self-Driving, достеменно невідомо.

 
 
 
Переглянути цей допис в Instagram

Допис, поширений Razzle Dangerously (@mynameisrazzle)

Подібні випадки почали активно обговорювати після того, як протягом лише двох тижнів у мережі з’явилося щонайменше три відео, де водії Tesla, ймовірно, сплять під час руху. Ще один ролик, оприлюднений телеканалом KRON4, демонструє ситуацію на автомагістралі в Каліфорнії: у Tesla Model 3 нібито спали і водій, і пасажир, поки автомобіль рухався трасою.

Окремо телеканал ABC7 показав ще один інцидент за участю Tesla Model Y. Зафіксований у місті Колтон у Каліфорнії автомобіль рухався дорогою, тоді як водій, судячи з відео, дрімав за кермом, одягнувши бейсболку та сонцезахисні окуляри.

Такі ситуації знову піднімають питання про те, як саме водії сприймають сучасні системи допомоги. Із кожним поколінням технологій межа між звичайними асистентами водіння та повністю автономним керуванням у свідомості багатьох користувачів стає дедалі менш очевидною. Саме це, на думку експертів, може створювати небезпечне відчуття надмірної впевненості у можливостях автомобіля.

У сучасних версіях системи Full Self-Driving (Supervised) передбачений контроль уваги водія. Якщо автомобіль визначає, що водій не реагує на попередження або не контролює керування, система може почати процедуру безпечної зупинки автомобіля. Однак попередні версії програмного забезпечення не завжди мали такі функції.

Крім того, у минулому деякі водії знаходили способи обійти перевірку присутності рук на кермі, наприклад використовуючи додаткові вантажі. Через це автомобіль міг помилково «вважати», що водій тримає кермо, навіть якщо фактично не контролював рух.

Попри постійне вдосконалення програмного забезпечення Tesla, подібні випадки, ймовірно, і надалі виникатимуть. Причина полягає у тому, що розвиток систем автономного керування відбувається частково через використання реальних автомобілів на дорогах, де власники фактично стають учасниками масштабного тестування нових технологій.

Автопілот Tesla намагався скинути машину з людиною з моста. Дорожньо-транспортні пригоди (ДТП)

У США компанія Tesla опинилася у центрі судового розгляду після аварії за участю електричного пікапа Cybertruck, яка, за словами водійки, сталася під час роботи системи напівавтономного керування Full Self-Driving (Supervised). Інцидент стався у серпні 2025 року на автомагістралі в районі Х’юстона, штат Техас, і тепер розглядається судом округу Гарріс.

Система FSD, яку Tesla активно просуває як одну з найпросунутіших технологій допомоги водієві, вже використовується тисячами власників автомобілів у США. Водночас вона залишається об’єктом постійних дискусій щодо безпеки та реальних можливостей напівавтономного керування. Новий судовий позов став ще одним прикладом того, як подібні технології опиняються під юридичним і технічним аналізом.

Позов подала власниця Cybertruck Джастін Сент-Амур, яка стверджує, що під час поїздки автомагістраллю 69 Eastex Freeway активувала систему FSD. За її словами, коли автомобіль наближався до розв’язки Y-подібної форми поблизу транспортного вузла Houston Metro 256 Eastex Park & Ride, система навігації повинна була спрямувати автомобіль праворуч, слідуючи вигину дороги.

Однак, як зазначено в позові, електроніка автомобіля нібито продовжила рух прямо — у напрямку бетонного розділювального бар’єра. Водійка встигла перехопити керування буквально за мить до зіткнення, але уникнути удару не вдалося. У результаті автомобіль врізався у бетонне огородження передньою частиною.

За даними позову, унаслідок аварії жінка отримала серйозні травми. Йдеться про дві грижі міжхребцевих дисків у поперековому відділі хребта, ще одну грижу в шийному відділі, розтягнення сухожиль зап’ястка та симптоми нейропатії. За інформацією місцевих медіа, відеореєстратор автомобіля зафіксував момент аварії, показавши, як Cybertruck намагався пройти поворот на розв’язці, але врешті врізався у бетонні бар’єри.

Фотографії, зроблені після ДТП, свідчать про серйозні пошкодження передньої частини електричного пікапа. Передній бампер був розбитий, а уламки кузовних елементів розсипалися по дорозі.

Окрему увагу у позові приділено технічному підходу Tesla до систем автономного керування. Позивачі стверджують, що аварії могло сприяти рішення компанії використовувати для системи автопілота лише камери, відмовившись від застосування радарів та лідарів, які використовують деякі інші виробники автомобілів. На їхню думку, такий підхід може обмежувати можливості системи правильно оцінювати дорожню обстановку.

Адвокат водійки Боб Хілліард заявив, що, на його переконання, конструктивні рішення Tesla зробили аварію практично неминучою. У позові також міститься критика на адресу керівництва компанії та її маркетингової політики щодо можливостей системи автономного керування.

У документі Tesla звинувачують у недбалості та вимагають компенсацію у розмірі понад 1 млн доларів США. Суду належить встановити, чи дійсно система FSD могла сприяти аварії та чи несе виробник відповідальність за її роботу в реальних дорожніх умовах.

Tesla на «автопілоті» FSD протаранила шлагбаум залізничного переїзду. Дорожньо-транспортні пригоди (ДТП)

У мережі з’явилось нове відео, на якому електромобіль Tesla Model 3 у режимі Tesla Full Self Driving (FSD) проїжджає крізь закриті шлагбауми залізничного переїзду в районі West Covina поблизу Лос-Анджелес. Система не розпізнала бар’єри та не спробувала загальмувати.

Відео опублікував користувач Лауші Лю у соцмережі Threads. На записі з відеореєстратора видно, як автомобіль рухається у режимі FSD зі швидкістю приблизно 37 км/год. У цей момент шлагбауми на переїзді вже опустилися, але автомобіль продовжив рух і врізався в них.

Бар’єри знаходилися приблизно на рівні передніх камер Tesla, тому збій системи викликав особливе занепокоєння. На відео видно, що система не показала ознак розпізнавання перешкоди і не почала гальмувати. Водій також не втрутився вчасно, хоча судячи з запису натиснув на гальма приблизно в момент удару.

Після появи відео користувачі активно обговорюють ситуацію. Частина коментаторів нагадала, що FSD — це система автономності рівня 2, яка вимагає постійного контролю водія. Інші розкритикували Tesla за використання назви Full Self-Driving, якщо система не здатна розпізнати навіть шлагбауми на залізничному переїзді. Ця назва неодноразово ставала предметом критики, розслідувань регуляторних органів та судових розглядів.

Проблеми з переїздами вже неодноразово фіксувалися раніше. Журналісти NBC News зібрали понад 40 повідомлень у соцмережах про подібні інциденти з FSD. Вони також поспілкувалися з шістьма власниками Tesla, четверо з яких надали відеодокази.

В одному задокументованому випадку у штаті Пенсильванія автомобіль Tesla у режимі FSD виїхав на колію, після чого його протаранив поїзд. Водій та пасажири встигли вийти з автомобіля до зіткнення.

Через такі випадки сенатори Ед Маркі та Річард Блументаль звернулися до Національне управління безпеки дорожнього руху США (NHTSA) із закликом розпочати офіційне розслідування поведінки FSD на залізничних переїздах.

Відео з’явилося саме в день, коли NHTSA очікує від Tesla критично важливі дані щодо порушень, пов’язаних із FSD. Агентство розпочало розслідування у жовтні 2025 року, коли пов’язало 58 інцидентів із роботою системи, включно з 14 аваріями та 23 травмами.

До грудня 2025 року кількість зафіксованих порушень зросла до 80 випадків. Дані надійшли з 62 скарг водіїв, 14 звітів Tesla та 4 повідомлень у медіа. Розслідування охоплює приблизно 2,88 млн автомобілів Tesla, оснащених FSD.

Tesla вже двічі переносила дедлайн передачі даних — з 19 січня на 23 лютого, а потім на 9 березня. Компанія пояснила затримку тим, що має 8313 записів, які потребують ручної перевірки, і може обробляти лише близько 300 на день.

NHTSA вимагає детальні хронології кожного інциденту — починаючи за 30 секунд до події, із зазначенням версії FSD, попереджень водієві та інформації про аварії, травми чи загибель людей.

Останнім часом подібні інциденти трапляються дедалі частіше. У лютому стало вірусним відео, де FSD намагалася направити Tesla у озеро, а у грудні власник Tesla у Китай потрапив у лобове зіткнення під час стріму, демонструючи роботу системи. Ще раніше Cybertruck з FSD врізався в стовп, а Tesla Model S збила мотоцикліста.

При цьому Tesla паралельно тестує обмежений сервіс безпілотного таксі Robotaxi у Остін, використовуючи ту саму систему FSD, яка зараз перебуває під федеральним розслідуванням.