មិនថាអ្នកណាម្នាក់អាចមានភាពឆ្លាតវៃ ឬមានចក្ខុវិស័យកម្រិតណានោះទេ វាជារឿងសំខាន់ដែលត្រូវចងចាំថា នៅទីបញ្ចប់ពួកគេជាមនុស្ស ហើយមានកំហុស។ ដោយសារតែពួកគេគ្រប់គ្រងដើម្បីជោគជ័យក្នុងផ្នែកខ្លះ វាមិនមានន័យថាពួកគេអាចធ្វើដូចគ្នានៅក្នុងអ្វីគ្រប់យ៉ាងដែលពួកគេព្យាយាមនោះទេ។ ដូច្នេះហើយទើបវាសំខាន់ណាស់ក្នុងការចៀសវាងដាក់មនុស្សនៅលើជើងទម្រខ្ពស់ពេក ព្រោះវានឹងបង្កគ្រោះថ្នាក់នៅពេលពួកគេធ្លាក់។ ភាពយន្តឯកសារថ្មីមួយដែលបោះពុម្ពដោយកាសែត New York Times
នៅម៉ោងដំណើរការ ៧៤ នាទី "វគ្គគាំងរបស់ Elon Musk” ព្យាយាមគ្របដណ្តប់លើមូលដ្ឋានជាច្រើន ប៉ុន្តែនៅទីបំផុតវាហាក់ដូចជាវាចំណាយពេលច្រើនពេកលើប្រធានបទមួយចំនួន ហើយមិនគ្រប់គ្រាន់សម្រាប់អ្វីដែលសំខាន់បំផុតនោះទេ។ អ្នកដឹកនាំរឿង Emma Schwartz បើកខ្សែភាពយន្តដោយមើលប្រភពដើមនៃ Tesla និងការខិតខំប្រឹងប្រែងក្នុងការអភិវឌ្ឍរថយន្តស្វ័យប្រវត្តិត្រឡប់ទៅខ្សែភាពយន្តផ្សព្វផ្សាយរបស់ GM ពីឆ្នាំ 1956 ដែលបង្ហាញពីគំនិត Firebird II និង DAR
ទោះជាយ៉ាងណាក៏ដោយ កន្លែងដែលខ្សែភាពយន្តនេះហាក់ដូចជាខុស គឺចំណាយពេលច្រើនពេកលើ Joshua Brown ។ Brown គឺជាអតីតអ្នកជំនាញការបំផ្ទុះគ្រាប់បែករបស់កងទ័ពជើងទឹក ដែលជាអ្នកស្លាប់ដំបូងគេដែលគេស្គាល់ថាកំពុងប្រើប្រាស់ប្រព័ន្ធជំនួយអ្នកបើកបរដោយស្វ័យប្រវត្តិរបស់ក្រុមហ៊ុន Tesla ។ ផ្នែកសំខាន់ៗនៃខ្សែភាពយន្តនេះត្រូវបានផ្តល់ទៅឱ្យការស្តាប់ពីមិត្តភក្តិមួយចំនួនរបស់ Brown អំពីមូលហេតុដែលគាត់ជាប់ចិត្តនឹង AutoPilot ដូច្នេះគាត់បានដាក់ចម្ងាយជាង 45,000 ម៉ាយលើ Model S របស់គាត់ក្នុងរយៈពេល 2016 ខែរវាងការចេញផ្សាយ AutoPilot និងការស្លាប់របស់គាត់នៅខែឧសភា XNUMX ។
ខណៈពេលដែលអ្នកយកព័ត៌មានរបស់ New York Times លោក Neal Baudette និង Cade Metz ធ្វើការងារដែលអាចពន្យល់ពីដែនកំណត់មួយចំនួនរបស់ AutoPilot មនុស្សភាគច្រើនដែលប្រហែលជាកំពុងមើលខ្សែភាពយន្តបែបនេះប្រហែលជាមានចំណេះដឹងបច្ចេកទេសតិចតួច ឬគ្មានអំពីរបៀបដែលការបើកបរដោយស្វ័យប្រវត្តិដំណើរការ។ សមាជិកនៃសាធារណជនទូទៅទាំងនោះនឹងទទួលបានអត្ថប្រយោជន៍យ៉ាងច្រើនពី primer ដ៏រឹងមាំដែលកាត់បន្ថយការយល់ខុសជាច្រើនជុំវិញការបើកបរដោយស្វ័យប្រវត្តិ ដែលភាគច្រើនត្រូវបានផ្សព្វផ្សាយដោយនាយកប្រតិបត្តិ Tesla លោក Musk ខ្លួនឯងក្នុងរយៈពេលជាច្រើនឆ្នាំកន្លងមកនេះ។
អ្នកទស្សនាអាចរៀនមេរៀនសំខាន់ៗមួយចំនួនអំពីអ្វីដែលវាត្រូវការដើម្បីបង្កើត សាកល្បង និងធ្វើឱ្យយានជំនិះស្វ័យប្រវត្តិមួយមានសុពលភាព ប្រសិនបើខ្សែភាពយន្តនេះបានរួមបញ្ចូលការសម្ភាសន៍ជាមួយសាស្ត្រាចារ្យវិទ្យាសាស្ត្រកុំព្យូទ័ររបស់សាកលវិទ្យាល័យ Carnegie Mellon ឬ Phillip Koopman ឬមេធាវីដែលមានមូលដ្ឋាននៅ Ann Arbor គឺ Jennifer Dukarski ។ ជំនួសមកវិញ យើងទទួលបានពាក្យជាច្រើនពីមិត្តភ័ក្តិរបស់ Brown ដែលពន្យល់ពីរបៀបដែលគាត់ចាប់អារម្មណ៍លើបច្ចេកវិទ្យា និងមូលហេតុដែលគាត់មានភាពក្លាហានក្នុងការសាកល្បងដែនកំណត់នៃរថយន្តរបស់គាត់។
សម្រាប់កិត្តិយសរបស់អ្នកផលិតខ្សែភាពយន្តដែលពួកគេបានធ្វើរួមមានការសម្ភាសន៍ជាមួយអតីតវិស្វករមួយគូនៅក្នុងក្រុម AutoPilot សមាជិកនៃក្រុមប្រឹក្សាសុវត្ថិភាពដឹកជញ្ជូនជាតិ (NTSB) រួមទាំងអតីតប្រធាន Robert Sumwalt និង Bryan Thomas អតីតនាយកទំនាក់ទំនងនៃរដ្ឋបាលសុវត្ថិភាពចរាចរណ៍ផ្លូវជាតិ។ (NHT
Raven Jiang និង JT Stukes ទាំងពីរបានទទួលស្គាល់ដែនកំណត់នៃ AutoPilot ។ Jiang បាននិយាយថា "យើងចង់ព្យាយាមធ្វើឱ្យ AutoPilot មានសុវត្ថិភាព" ។
លោក Stukes បន្ថែមថា "នៅពេលនៃការគាំងនោះ ខ្ញុំដឹងថាមនុស្សកំពុងជឿជាក់លើប្រព័ន្ធនេះ ដើម្បីធ្វើរឿងដែលវាមិនត្រូវបានរចនាឡើង ឬមានសមត្ថភាពធ្វើ" ។ "ការពិតដែលគ្រោះថ្នាក់បែបនេះបានកើតឡើងច្បាស់ជាសោកនាដកម្ម ប៉ុន្តែវាជារឿងដែលនឹងកើតឡើង"។
ហេតុផលមួយដែលវាទំនងជាកើតឡើងនោះគឺថា Tesla បានសម្រេចចិត្តប្រើកាមេរ៉ាដំបូង ហើយឥឡូវនេះប្រព័ន្ធសម្រាប់តែកាមេរ៉ាប៉ុណ្ណោះ។ "មិនមានដំណាក់កាលស្រាវជ្រាវស៊ីជម្រៅទេ ដែលរថយន្តផ្សេងៗត្រូវបានបំពាក់ដោយឧបករណ៍ចាប់សញ្ញាជាច្រើន សមាជិកក្រុមជាច្រើននឹងចូលចិត្តវា ផ្ទុយទៅវិញការសន្និដ្ឋានត្រូវបានធ្វើឡើងជាមុន ហើយបន្ទាប់មកសកម្មភាពសាកល្បង និងការអភិវឌ្ឍន៍បានចាប់ផ្តើមបង្ហាញថាការសន្និដ្ឋានត្រឹមត្រូវ"។
ក្នុងរយៈពេល 15 ឆ្នាំកន្លងមកនេះ Musk បានជំរុញការអភិវឌ្ឍន៍ដ៏អស្ចារ្យជាច្រើនក្នុងវិស័យរ៉ុក្កែត និងការពេញនិយមរថយន្ត EV និងរថយន្តដែលកំណត់ដោយកម្មវិធី។ ប៉ុន្តែនៅពេលដែលវាមកដល់ប្រព័ន្ធសំខាន់សុវត្ថិភាពមិនមានផ្លូវកាត់ទេ។ នៅពេលដែលជីវិតមានបញ្ហា វាគឺជាទំនួលខុសត្រូវរបស់អ្នកដែលបង្កើតបច្ចេកវិទ្យាដើម្បីយកចិត្តទុកដាក់។ នៅពេលដែលពួកគេបរាជ័យក្នុងការធ្វើដូច្នេះដូចដែល Musk បានធ្វើម្តងហើយម្តងទៀតជាមួយ AutoPilot និង Full Self-Driving វាគឺជាទំនួលខុសត្រូវរបស់និយតករសុវត្ថិភាពក្នុងការគ្រប់គ្រងមនុស្សទាំងនោះ។
នេះជាកន្លែងដែលខ្ញុំឃើញការបរាជ័យដ៏ធំបំផុតនៃខ្សែភាពយន្តនេះ។ NTSB មានទំនួលខុសត្រូវក្នុងការស៊ើបអង្កេតគ្រោះថ្នាក់ដឹកជញ្ជូនគ្រប់ប្រភេទ រួមមាន អាកាសចរណ៍ ផ្លូវដែក យានសមុទ្រ និងដី។ បន្ទាប់ពីការគាំង Brown នេះ NTSB បានធ្វើការណែនាំល្អៗជាច្រើន រួមទាំងការទាមទារឱ្យមានការត្រួតពិនិត្យអ្នកបើកបរដ៏រឹងមាំបន្ថែមទៀតសម្រាប់ប្រព័ន្ធដែលនៅតែត្រូវការការត្រួតពិនិត្យរបស់មនុស្សដូចជា Tesla AutoPilot/FSD, Super Cruise របស់ GM និងប្រព័ន្ធផ្សេងទៀតនៅលើផ្លូវសព្វថ្ងៃនេះ។ NTSB ក៏បានផ្តល់អនុសាសន៍ថាប្រព័ន្ធគួរតែត្រូវបានកំណត់ភូមិសាស្ត្រទៅនឹងផ្លូវដែលពួកគេអាចដំណើរការដោយសុវត្ថិភាព។
NHTSA គឺជាទីភ្នាក់ងារដែលមានសិទ្ធិអំណាចគ្រប់គ្រង និងអនុវត្តលើឧស្សាហកម្មរថយន្ត។ ក្នុងរយៈពេលប្រាំមួយឆ្នាំចាប់តាំងពីការស្លាប់របស់ Brown មានការគាំងធ្ងន់ធ្ងរជាច្រើនផ្សេងទៀតដែលពាក់ព័ន្ធនឹងការប្រើប្រាស់ AutoPilot ខុស ប៉ុន្តែ NHTSA មិនបានធ្វើអ្វីទាល់តែសោះដើម្បីអនុវត្តបទប្បញ្ញត្តិ NTSB ណាមួយ។ មានតែក្នុងរយៈពេល 12 ខែចុងក្រោយប៉ុណ្ណោះចាប់តាំងពីការផ្លាស់ប្តូររដ្ឋបាលនៅវ៉ាស៊ីនតោន NHTSA ថែមទាំងបានចាប់ផ្តើមធ្វើការប្រមូលទិន្នន័យធ្ងន់ធ្ងរណាមួយនៅលើប្រព័ន្ធស្វ័យប្រវត្តិដោយផ្នែក ហើយវាជាការស្មានរបស់នរណាម្នាក់ថាតើនៅពេលណាដែលអ្វីមួយនឹងកើតឡើង។
ខ្សែភាពយន្តនេះបានទម្លាក់បាល់ទាំងស្រុងលើការរកមើលថាហេតុអ្វីបានជា NHTSA មិនបានធ្វើអ្វីសោះដើម្បីធានាថាប្រព័ន្ធស្វ័យប្រវត្តិកម្មមួយផ្នែកត្រូវបានផ្ទៀងផ្ទាត់ថាមានសុវត្ថិភាព និងមានប្រសិទ្ធភាព។ ប្រសិនបើមានអ្វី ទីភ្នាក់ងារនេះបានអនុញ្ញាតឱ្យ Tesla បន្តឆ្ពោះទៅមុខជាមួយនឹងការលក់បច្ចេកវិទ្យាដែលមិនដំណើរការ និងផ្សព្វផ្សាយវាច្រើនជាងពេលណាទាំងអស់។ ដើម្បីឱ្យមានភាពយុត្តិធម៌ ភ្នាក់ងាររដ្ឋាភិបាលផ្សេងទៀតដូចជាគណៈកម្មការពាណិជ្ជកម្មសហព័ន្ធក៏អាចនឹងកំពុងព្យាយាមដោះស្រាយយ៉ាងហោចណាស់ផ្នែកទីផ្សារនៃបញ្ហានេះដែរ ប៉ុន្តែខ្សែភាពយន្តនេះមិនបានពិនិត្យមើលការបរាជ័យរបស់មន្ត្រីរដ្ឋាភិបាលណាមួយឡើយ។
នៅក្នុងប្រព័ន្ធមូលធននិយម វាមិនមែនជារឿងចម្លែកទេសម្រាប់ក្រុមហ៊ុននានាក្នុងការព្យាយាមដកខ្លួនចេញតាមលទ្ធភាពដែលពួកគេអាចធ្វើបានក្នុងការស្វែងរកប្រាក់ចំណេញ។ វាជាការងាររបស់រដ្ឋាភិបាលក្នុងការដំឡើងរនាំងការពារដែលចាំបាច់ដើម្បីការពារសាធារណជនពីក្រុមហ៊ុនដែលគ្មានសីលធម៌។ វាជាការងាររបស់អ្នកសារព័ត៌មានក្នុងការបំភ្លឺចំពោះរាល់ការបរាជ័យក្នុងដំណើរការនេះ ដូច្នេះយើងក្នុងនាមជាប្រជាជនអាចដឹងនិងតម្កល់អ្នករាល់គ្នាក្នុងការគិតគូរ។ វគ្គ Crash របស់ Elon Musk មានឱកាសធ្វើបានច្រើនជុំវិញរឿង ហើយទម្លាក់បាល់។ ត្រូវធ្វើបន្ថែមទៀតដើម្បីប្រាប់ការពិតអំពីអ្វីដែលកំពុងកើតឡើងជាមួយភាគីទាំងអស់ដែលពាក់ព័ន្ធនឹងរឿងសោកនាដកម្មនេះ។
ប្រភព៖ https://www.forbes.com/sites/samabuelsamid/2022/05/23/elon-musks-crash-coursettakes-a-cursory-look-at-engineering-and-regulatory-failure/