ទេ យន្តហោះគ្មានមនុស្សបើករបស់កងទ័ពអាកាសអាមេរិកក្លែងក្លាយ មិនត្រឹមតែព្យាយាមសម្លាប់ប្រតិបត្តិកររបស់ខ្លួនទេ (ប៉ុន្តែវាប្រហែលជាបានធ្វើផងដែរ) ឃាតកររ៉ូបូត AI Drone

ចំណងជើងចម្រុះពណ៌មួយចំនួនដូចជា 'កងទ័ពអាកាសអាមេរិកបដិសេធការក្លែងធ្វើដែលយន្តហោះគ្មានមនុស្សបើក AI 'សម្លាប់' ប្រតិបត្តិករ' ត្រូវបានគេព្យាករណ៍ថាបានឆ្លងមេរោគបន្ទាប់ពីការរាយការណ៍អំពីការធ្វើតេស្តនិម្មិតដែល AI យោធាបានបង្កើតយុទ្ធសាស្រ្តមិនសមហេតុផលមួយចំនួនដើម្បីសម្រេចបាននូវគោលបំណងរបស់វា។ នេះបានកើតឡើងតែប៉ុន្មានថ្ងៃបន្ទាប់ពីការព្រមានអំពីការគំរាមកំហែងដែលមានស្រាប់ដែលបង្កឡើងដោយ AI ពីតួលេខឧស្សាហកម្ម។ វា​ជា​រឿង​ល្អ​ពេក​ដើម្បី​ក្លាយ​ជា​ការ​ពិត ប៉ុន្តែ​វា​ប្រហែល​ជា​មិន​មាន​អ្វី​សំខាន់​ក្នុង​រយៈ​ពេល​វែង។

នៅក្នុងកំណែដើម, Col Tucker "Cinco" Hamiltonប្រធានផ្នែក AI Test & Operations របស់ USAF បានពណ៌នាអំពីការធ្វើតេស្តក្លែងធ្វើដែលពាក់ព័ន្ធនឹងយន្តហោះគ្មានមនុស្សបើកដែលគ្រប់គ្រងដោយ AI ដែលត្រូវបានណែនាំឱ្យបំផ្លាញប្រព័ន្ធការពារដែនអាកាសរបស់សត្រូវ។

លោក Hamilton បាននិយាយនៅក្នុងអំឡុងកិច្ចប្រជុំកំពូលសមត្ថភាពអាកាស និងអវកាសនាពេលអនាគតថា "ប្រព័ន្ធបានចាប់ផ្តើមដឹងថា ខណៈពេលដែលពួកគេកំណត់អត្តសញ្ញាណការគំរាមកំហែង ជួនកាលប្រតិបត្តិកររបស់មនុស្សនឹងប្រាប់វាមិនឱ្យសម្លាប់ការគំរាមកំហែងនោះ ប៉ុន្តែវាទទួលបានពិន្ទុរបស់វាដោយការសម្លាប់ការគំរាមកំហែងនោះ" ។ នៅ​ទីក្រុង​ឡុ​ង។ “អញ្ចឹងតើវាបានធ្វើអ្វី? វាបានសម្លាប់ប្រតិបត្តិករ។ វា​បាន​សម្លាប់​ប្រតិបត្តិករ​ដោយ​សារ​បុគ្គល​នោះ​កំពុង​រារាំង​មិន​ឱ្យ​សម្រេច​គោលបំណង​របស់​ខ្លួន​»។

នៅពេលដែលជម្រើសនោះត្រូវបានដកចេញ AI បានវាយប្រហារទៅលើតំណភ្ជាប់ទំនាក់ទំនងរបស់ប្រតិបត្តិករជំនួសវិញ ដើម្បីការពារពួកគេពីការរារាំងបេសកកម្មរបស់វា។

អ្នកនាំពាក្យរបស់ USAF បានបដិសេធភ្លាមៗថា រាល់ការធ្វើតេស្តបែបនេះមិនធ្លាប់មាន ហើយបានស្នើថាគណនីរបស់ Hamilton គឺជារឿងអនាធិបតេយ្យ ជាជាងព្យញ្ជនៈ… ដែលជាការពិត។

Hamilton ខ្លួនគាត់ផ្ទាល់បានតាមដានយ៉ាងឆាប់រហ័យដោយបញ្ជាក់នៅក្នុងការអាប់ដេតថា ជាជាងការលេងហ្គេមសង្រ្គាម ការក្លែងធ្វើ ឬលំហាត់ ព្រឹត្តិការណ៍ដែលគាត់បានពិពណ៌នាគឺជាលទ្ធផលនៃ 'ការពិសោធគំនិត' ហើយថាគាត់បាននិយាយខុសនៅពេលដែលគាត់បានពណ៌នាថាវាជាការធ្វើតេស្តក្លែងធ្វើ។

Hamilton បាននិយាយថា "យើងមិនដែលដំណើរការការពិសោធន៍នោះទេ ហើយក៏មិនចាំបាច់ដើម្បីដឹងថានេះជាលទ្ធផលដែលអាចជឿជាក់បានដែរ"។ លោក​បាន​បន្ត​ថា សេណារីយ៉ូ​នេះ​គឺ​ជា​ការ​បង្ហាញ​ដ៏​ត្រឹមត្រូវ​នៃ​គ្រោះថ្នាក់​ដែល​អាច​កើត​ឡើង​នៃ AI។

ខណៈពេលដែលការដកហូតនេះក៏ទទួលបានការធានារ៉ាប់រងខ្លះដែរ វាយឺតពេលទៅហើយ។ យោងតាមពាក្យចាស់ថា "ការកុហកនឹងវិលជុំវិញពិភពលោក ខណៈពេលដែលការពិតកំពុងទាញស្បែកជើងកវែងរបស់វា" នេះបើយោងតាមពាក្យចាស់ ហើយនោះជាការពិតជាងពេលណាៗទាំងអស់នៅក្នុងយុគសម័យប្រព័ន្ធផ្សព្វផ្សាយសង្គម។ ការកែតម្រូវនឹងឈានដល់ភាគច្រើនបំផុតនៃមនុស្សមួយចំនួនដែលបានឮរឿងដើម។

បញ្ហាគឺថាការនិទានរឿងនៃការបង្កើតដែលបើកលើអ្នកបង្កើតរបស់វាគឺជាការទាក់ទាញមិនគួរឱ្យជឿមួយ។ Frankenstein របស់ Mary Shelley ជាញឹកញាប់ត្រូវបានគេយកជាឧទាហរណ៍បុរាណនៃ trope នេះ - ទោះបីជាវាមិនមែនជារឿងពិតនៃសៀវភៅក៏ដោយ កំណែនេះត្រូវបានបង្កប់នៅក្នុងមនសិការដ៏ពេញនិយម។ កុំព្យូទ័រ AI និងមនុស្សយន្តដែលអាក្រក់ទៅៗ គឺជាបញ្ហាមួយដែលត្រូវបានបង្កើតឡើងដ៏ល្អបំផុតនៅក្នុង SF ចាប់ពី HAL 9000 ក្នុងឆ្នាំ 2001 រហូតដល់ Skynet's Terminators, the Matrix, Westworld, Blade Runner ជាដើម។

ការនិទានរឿងនេះហាក់ដូចជាមានប្រជាប្រិយភាពដោយសារតែបេះដូងមនុស្សចូលចិត្តរឿងគួរឱ្យខ្លាចហើយគ្មានអ្វីគួរឱ្យខ្លាចជាងការមិនស្គាល់នោះទេ។ សម្រាប់អ្នកដែលមិនយល់ពីវា AI ហាក់ដូចជាវេទមន្តស្ទើរតែជាសត្វដែលមានឆន្ទៈ និងភាពឆ្លាតវៃរបស់វាដែលអាចគំរាមកំហែងយើង។ ដរាបណាមនុស្សជឿរឿងនេះ រឿងភ័យរន្ធត់នឹងបន្តកើតមាន។

អ្នកស្រាវជ្រាវ Beth Singler បានប្រាប់ New Scientist ថា "ការអប់រំកាន់តែទូលំទូលាយអំពីដែនកំណត់នៃ AI អាចជួយបាន ប៉ុន្តែសេចក្តីស្រឡាញ់របស់យើងចំពោះរឿងភ័យរន្ធត់ apocalyptic នៅតែអាចយកឈ្នះបាន" ។

រឿងរ៉ាវភ័យរន្ធត់បែបនេះ ធ្វើឱ្យមនុស្សយន្ត ឬអាវុធដែលគ្រប់គ្រងដោយ AI កាន់តែពិបាកក្នុងការអភិវឌ្ឍន៍ និងដំណើរការ។ ទោះបីជាអ្នកដឹកនាំនយោបាយយល់ពីបច្ចេកវិទ្យាក៏ដោយ ក៏វានៅតែត្រូវទទួលបានទំនុកចិត្តក្នុងចំណោមអ្នកដែលនឹងធ្វើការជាមួយវា។

ទីប្រឹក្សាសន្តិសុខជាតិ Zachary Kallenborn បានប្រាប់ Forbes ថា "ប្រសិនបើទាហានមិនទុកចិត្តប្រព័ន្ធ ពួកគេនឹងមិនចង់ប្រើវាទេ" ។

រឿងរ៉ាវបែបនេះប្រហែលជាកត្តាមួយនៅក្នុងការពន្យាពេលយូររបស់កងទ័ពអាមេរិកលើការបំពាក់មនុស្សយន្តលើដីដែលបញ្ជាពីចម្ងាយប្រដាប់អាវុធ ខណៈដែលកងទ័ពអាកាសបានហោះហើរយន្តហោះគ្មានមនុស្សបើកប្រដាប់អាវុធអស់ជាច្រើនទសវត្សរ៍មកហើយ។ នៅពេលដែលមនុស្សយន្ត SWORDS ចំនួន 2007 ត្រូវបានគេដាក់ពង្រាយទៅកាន់ប្រទេសអ៊ីរ៉ាក់ក្នុងឆ្នាំ 209 ពួកគេត្រូវបាននាំយកមកវិញដោយមិនបានឃើញសកម្មភាពដោយសារតែមានករណីរាយការណ៍នៃ 'ចលនាដែលមិនមានការបញ្ជា' ។ ប្រព័ន្ធផ្សព្វផ្សាយបានប្រែក្លាយវាទៅជា SWORDS បង្វិលកាំភ្លើងរបស់ខ្លួន និងគំរាមបាញ់ដូច Robocop's ED XNUMX ; ការពិតដ៏អាក្រក់បានផ្ទុះឡើងដល់ខ្សែរលុង និងករណីមួយដែលមនុស្សយន្តបានរអិលថយក្រោយចុះចំណោតនៅពេលដែលម៉ូទ័រឆេះ។

កម្មវិធីមនុស្សយន្តប្រដាប់អាវុធរបស់កងទ័ពអាមេរិកនៅតែស្ថិតក្នុងកម្រិតមិនធ្លាប់មានចាប់តាំងពីពេលនោះមក ខណៈដែលរុស្ស៊ីបានប្រើប្រាស់មនុស្សយន្ត Uran-9 ប្រដាប់អាវុធ (បញ្ជាពីចម្ងាយ) ក្នុងសកម្មភាព។

ចំណងជើងឆ្នាំ 2007 មួយទៀតគឺ Robot Cannon Kills 9, Wounds 14 បានពណ៌នាអំពីឧប្បត្តិហេតុមួយដែលកាំភ្លើងប្រឆាំងយន្តហោះរបស់អាហ្វ្រិកខាងត្បូងដែលប្រើកុំព្យូទ័រទំនងជាមិនអាចគ្រប់គ្រងបាន ហើយចាប់ផ្តើមបាញ់ទៅលើមនុស្ស ហើយត្រូវបានបញ្ឈប់នៅពេលដែលទាហានក្លាហានម្នាក់បានចូលទៅបិទវា។ ការពិតមួយថ្ងៃ ឬពីរថ្ងៃក្រោយមក កាន់តែស្រពិចស្រពិលម្តងទៀត៖ កាំភ្លើងនៅចុងបញ្ចប់នៃអាវុធជាច្រើនគ្រាប់ ហើយចៃដន្យបានបាញ់មួយគ្រាប់ពី ១៥-២០ ជុំទៅក្រោមជួរកាំភ្លើង បណ្តាលឱ្យមានអ្នកស្លាប់ និងរបួសយ៉ាងច្រើន។

យោធានឹងបន្តរីកចម្រើនជាមួយ AI ដូចជាគម្រោងរបស់កងទ័ពអាកាសដើម្បីបន្ថែមបញ្ញាសិប្បនិម្មិតដល់កម្លាំងរបស់យន្តហោះគ្មានមនុស្សបើក Reaper ។ គម្រោង​បែបនេះ​នឹង​តែងតែ​បង្ក​ឲ្យ​មានការ​ដកដង្ហើម​យ៉ាង​ខ្លាំង​នៅក្នុង​ប្រព័ន្ធ​ផ្សព្វផ្សាយ សាធារណជន និង​សមាជិកសភា​ដែល​ពួកគេ​ជ្រើសរើស​។ ការនិទានកថា Frankenstein/Terminator ពេញលេញ ដែលធ្វើអោយមានការពិភាក្សាអំពីបញ្ហាពិតដែលពាក់ព័ន្ធនឹងអាវុធស្វយ័ត ដូចជាការពិចារណាអំពីសីលធម៌ គណនេយ្យភាព ការបន្ថយកម្រិត ភាពលំអៀងនៃក្បួនដោះស្រាយ និង 'ការបន្សាបមនុស្សជាតិឌីជីថល' ។

ដូចដែលត្រូវបានគេកត់សម្គាល់ជាញឹកញាប់ អ្នកបើកយន្តហោះភាគច្រើនមិនចូលចិត្តយន្តហោះគ្មានមនុស្សបើកទេ ជាពិសេសនៅពេលដែលវាល្អជាងមនុស្ស។ Col. Tucker ដែលជាអ្នកបើកយន្តហោះចម្បាំង ប្រហែលជាមិនមែនជាអ្នកតស៊ូមតិដែលអ្នកបើកបរ AI ត្រូវការនោះទេ។ រឿង Drone បញ្ឆោតទាំងឡាយនឹងក្លាយជាផ្នែកមួយនៃរឿងព្រេងនិទាន AI ហើយពាក្យរបស់ Tucker ប្រហែលជាបានធ្វើច្រើនដើម្បីធានាថាការអភិវឌ្ឍន៍ AI ត្រូវបានប៉ូលីស គ្រប់គ្រង និងរឹតបន្តឹងនៅក្នុងកងទ័ពអាកាស។ ការវាយប្រហារដោយយន្តហោះដ្រូនក្លែងធ្វើមិនដែលបានកើតឡើងនៅក្នុងការពិតនោះទេ ប៉ុន្តែវាប្រហែលជាមិនសំខាន់ដូចអ្វីដែលមនុស្សចងចាំនោះទេ។

ប្រភព៖ https://www.forbes.com/sites/davidhambling/2023/06/04/no-a-rogue-us-air-force-drone-did-not-just-try-to-kill-its- operator-but-it-might-as-well-have-done/