Tesla. NHTSA-ն հետաքննում է ավտոպիլոտային ծրագրակազմը մի շարք մահացու վթարներից հետո
Հոդվածներ

Tesla. NHTSA-ն հետաքննում է ավտոպիլոտային ծրագրակազմը մի շարք մահացու վթարներից հետո

Ճանապարհների երթեւեկության անվտանգության ազգային վարչությունը մի քանի վթարներից հետո հետաքննություն է սկսել Tesla-ի Ավտոպիլոտի նկատմամբ: Հետաքննությունն ընդգրկում է Tesla մոդելի ողջ տեսականին՝ մոտ 765,000 ավտոմեքենա։

El tesla ավտոպիլոտ կրկին կրակի տակ. Այս անգամ ամեն ինչ շատ ավելի լուրջ է։ Ճանապարհների երթեւեկության անվտանգության ազգային վարչությունը (NHTSA) հետաքննություն է սկսել։ Պաշտոնական հայտարարություն Tesla-ի սեփական հարմարվողական նավարկության կառավարման ծրագրաշարի մասին: Ցավոք, դա տեղի ունեցավ մի շարք վթարներից հետո։ Բայց հիմա Tesla-ն իսկապես դժվարությունների մեջ է Ֆեդերացիայի հետ:

Բրենդային մոդելների ողջ տեսականին ենթակա է խորհրդատվության

Այսպիսով, ի՞նչն է կոնկրետ հանգեցրել ֆեդերացիաներին դեպի Tesla Autopilot: Ցավոք, մի քանի վթար է տեղի ունեցել, ստույգ՝ 11որ NHSTA-ն ասում է, որ Tesla-ն ներգրավված է եղել և առաջին արձագանքողները, մինչ Tesla Autopilot-ը ակտիվ էր: Ակնհայտ է, որ NHSTA-ն հավանություն չի տալիս արտակարգ իրավիճակների անձնակազմի բախմանը «ինքնակառավարվող» մեքենաների հետ, քանի դեռ նրանք իրավաբանորեն նպատակահարմար չեն դա անել: Այնուամենայնիվ, երբ դա ձեզ հարմար է:

Այս պահվածքը գրավել է NHTSA-ի ուշադրությունը: Ցավոք նաՀետաքննությունն ընդգրկում է Tesla-ի ամբողջ շարքը՝ մոտ 765,000 ավտոմեքենա:. Այնուամենայնիվ, կարևոր է նշել, որ Tesla-ն և, ըստ ընդլայնման, Իլոն Մասկը անմեղ են, քանի դեռ նրանց մեղավորությունն ապացուցված չէ: Հետաքննությունը շարունակվում է, սակայն Տրանսպորտի անվտանգության ազգային խորհուրդը (NTSB) խորհուրդ է տվել NHTSA-ին պահանջել Tesla-ին սահմանափակել այն տարածքները, որտեղ կարող է օգտագործվել Tesla Autopilot-ը:

Tesla Autopilot-ը ակնհայտորեն չի փոխարինի իրական մարդկանց

NTSB-ն նախկինում կրակել է Tesla-ի վրա՝ մեղադրելով ընկերությանը բազմաթիվ այլ վթարների համար: Սակայն պետք է նշել, որ այստեղ մեղավոր է ոչ միայն Tesla-ի ավտոպիլոտը։ Մարդիկ այնքան էլ պատասխանատու չեն կիսաինքնավար ծրագրային ապահովման հարցում. Նրանք ամեն ինչ անում էին քնից մինչև . Սակայն շատ դեպքերում այդ մարդիկ պատժվում են։ NHTSA-ն այժմ փորձում է պարզել, թե արդյոք Tesla-ն նույնպես կիսում է դրա մեղքը:

Այսպես թե այնպես, նրանք պետք է. Tesla-ի մոդելների շուրջ մշակույթ է ձևավորվել, որը բավականին վնասակար է դարձել։ Եվ փաստն այն է, որ մեքենաները գովազդվում են որպես iRobot-ից կամ Bladerunner-ից, թեև իրականում այդպես չէ: Tesla-ի ամբողջական ինքնակառավարումը լիարժեք ինքնակառավարում չէ: Լավագույն դեպքում սա բետա տարբերակ է: Անկեղծ ասած, մարդիկ բավականաչափ պատասխանատու չեն ինքնակառավարվող մեքենաների համար։ Եվ դա այն է, ինչ, կարծես, խթանել է NHTSA-ի հետաքննությունը:

Ինչպե՞ս կարող է ապրանքանիշը վերականգնել դրանից:

Պարզ է, որ Tesla-ն այս պահին պատկերի խնդիր ունի: Tesla-ն պետք է սկսի որոշակի թափանցիկությամբ: Որոշ անուններ փոխելը լավ սկիզբ կլիներ: «Tesla Autopilot»-ը որոշակիորեն ապակողմնորոշիչ է. GM-ի «SuperCruise» հարմարվողական նավարկության կառավարման ծրագրակազմը չի նշանակում ինքնավար վարում, այլ «Autopilot»-ը: Սա, անշուշտ, սկիզբ կլիներ, բայց ցանկացած իրական փոփոխություն պետք է տեսնել, թե ինչ է ասում NHSTA-ն:

********

-

-

Добавить комментарий