ក្រមសីលធម៌ AI តស៊ូជាមួយនឹងកណ្តាប់ដៃមួយ - ពីរដ៏កាចសាហាវនៃប្រព័ន្ធអាវុធស្វយ័តដែលផ្អែកលើ AI និងការកេងប្រវ័ញ្ចនៃប្រព័ន្ធស្វយ័តដែលជំរុញដោយ AI ដែលត្រូវបានអាវុធសាហាវ។

រ៉ូបូតជើងបួនរាំដ៏អស្ចារ្យ។

ខ្ញុំប្រាកដថាអ្នកបានឃើញវីដេអូមេរោគទាំងនោះនៃប្រព័ន្ធមនុស្សយន្តជើងបួនដែលរាំ និងរាំតាមរបៀបដែលមើលទៅគួរឱ្យរីករាយ និងដូចសត្វឆ្កែ។ យើងហាក់ដូចជារីករាយក្នុងការឃើញមនុស្សយន្តដែលដំណើរការដោយ AI ទាំងនោះ នៅពេលដែលពួកគេឡើងលើឧបសគ្គ ហើយហាក់ដូចជាទទួលបានជើងទម្រដ៏ឆ្ងាញ់នៅពេលដាក់នៅលើប្រអប់ខាងលើ ឬបន្ទាប់ពីត្រូវបានគេដាក់យ៉ាងប្រុងប្រយ័ត្ននៅលើកំពូលនៃទូ។ ពេលខ្លះអ្នកដោះស្រាយមនុស្សរបស់ពួកគេនឹងគោះ ឬរុញមនុស្សយន្តដែលមានជើងបួនដែលមើលទៅហាក់ដូចជាអយុត្តិធម៌យ៉ាងខ្លាំង ហើយអាចបង្កើនការខឹងសម្បាររបស់អ្នកចំពោះការព្យាបាលដ៏ប្រពៃដោយមនុស្សយន្តដែលគ្រប់គ្រងដោយមនុស្សទាំងនោះ។

ខ្ញុំឆ្ងល់ថាតើអ្នកបានឃើញវីដេអូដែលមិនមានមេរោគនៃកម្រិតខុសគ្នាទាំងស្រុង។

រៀបចំខ្លួន​របស់​អ្នក។

មានវីដេអូដែលបានបង្ហោះយ៉ាងទូលំទូលាយដែលបង្ហាញពីប្រភេទមនុស្សយន្តជើងបួនដូចគ្នា ដែលត្រូវបានបំពាក់ដោយអាវុធបញ្ចេញសម្លេងនៃប្រភេទមួយ ឬប្រភេទផ្សេងទៀត។

ជាឧទាហរណ៍ កាំភ្លើងយន្ត ឬអាវុធស្រដៀងគ្នាត្រូវបានបំពាក់នៅលើកំពូលនៃមនុស្សយន្តដែលចេះរាំ និងរាំ។ មានការភ្ជាប់អេឡិចត្រូនិចរវាងមនុស្សយន្តជើងបួន និងយន្តការបាញ់របស់អាវុធ។ សព្វាវុធ​ប្រឆាំង​ការ​ដើរ​តាម​កុំព្យូទ័រ​ត្រូវ​បាន​បង្ហាញ​ថា​កំពុង​តែ​ដើរ​ទៅ​រក​កន្លែង​ដែល​មាន​គ្រាប់​កាំភ្លើង​ធំ​ត្រូវ​បាន​គេ​បាញ់​យ៉ាង​សាហាវ​ដល់​គោលដៅ។ បន្ទាប់ពីកំណត់គោលដៅដែលត្រូវបានបំផ្លាញជាបន្តបន្ទាប់ មនុស្សយន្តជើងបួនបានរាំ និងដើរជុំវិញឧបសគ្គនៅក្បែរនោះ ហើយតម្រង់ជួរដើម្បីធ្វើសកម្មភាពដដែលម្តងហើយម្តងទៀតនៅគោលដៅថ្មីៗផ្សេងទៀត។

មិនមែនជាអ្វីដែលអ្នករំពឹងថានឹងបានឃើញនោះទេ។ នេះពិតជាធ្វើឱ្យមានភាពទន់ភ្លន់ និងក្ដីរីករាយចេញពីការមើលមនុស្សយន្តជើងបួនដែលគួរឱ្យស្រលាញ់ទាំងនោះធ្វើរឿងរបស់ពួកគេ។ សូមស្វាគមន៍មកកាន់ការពិតដ៏អាក្រក់នៃការហាក់ដូចជា ដេលគ្មានមេ ប្រព័ន្ធស្វយ័តកំពុងត្រូវបានបំប្លែង ឬផ្លាស់ប្តូរទៅជាអាវុធយ៉ាងខ្លាំង។ ជាមួយនឹងកិច្ចខិតខំប្រឹងប្រែងជាច្រើន អ្នកអាចពេញមួយយប់នូវប្រព័ន្ធស្វយ័ត "មិនប្រើអាវុធ" ដែលត្រូវបានពិចារណាឡើងវិញ ដើម្បីផ្ទុកអាវុធពេញ។

វាស្ទើរតែងាយស្រួល-peasy ក្នុងកាលៈទេសៈមួយចំនួន។

ខ្ញុំនឹងពិភាក្សាអំពីប្រធានបទដ៏ចម្រូងចម្រាសដ៏ក្តៅគគុកនេះ និងគ្របដណ្តប់លើគុណតម្លៃនៃក្រមសីលធម៌ AI ដ៏ខ្លាំងក្លាដែលកើតឡើង។ យើងនឹងធ្វើដំណើរទៅកាន់ប្រព័ន្ធស្វយ័ត AI យានជំនិះស្វយ័ត គ្រឿងសព្វាវុធ និងបញ្ហាមួយចំនួនដែលទាក់ទងនឹង Ethical AI combative។ សម្រាប់ការគ្របដណ្តប់ដែលកំពុងបន្ត និងទូលំទូលាយនៃ AI Ethics និង Ethical AI សូមមើល តំណភ្ជាប់នៅទីនេះ និង តំណភ្ជាប់នៅទីនេះ, គ្រាន់តែឈ្មោះមួយចំនួន។

ចូរចាប់ផ្តើមជាមួយនឹងគន្លឹះសំខាន់ៗមួយចំនួន។

សម្រាប់ជាប្រយោជន៍នៃការពិភាក្សា សូមទទួលយកថាមានវិធីធំៗពីរដើម្បីចាត់ថ្នាក់ប្រព័ន្ធស្វយ័តដែលត្រូវបានបំពាក់ដោយអាវុធ៖

1) ប្រព័ន្ធអាវុធស្វយ័ត (តាមការរចនា)

2) ប្រព័ន្ធស្វយ័តដែលមានអាវុធ (ដោយការពិត)

មានភាពខុសគ្នាសំខាន់រវាងប្រភេទទាំងពីរ។

នៅក្នុងឧទាហរណ៍ដំបូង យើងនឹងកំណត់និយមន័យមួយ។ ប្រព័ន្ធអាវុធស្វយ័ត ដើម្បីក្លាយជាការទទួលបាន-go មូលដ្ឋានការបង្កើតកុំព្យូទ័រដែលមានគោលបំណងដើម្បីក្លាយជាអាវុធ។ អ្នកអភិវឌ្ឍន៍បានគិតក្នុងចិត្តថាពួកគេចង់បង្កើតអាវុធ។ ដំណើរស្វែងរកច្បាស់លាស់របស់ពួកគេគឺការផលិតអាវុធ។ ពួកគេបានដឹងថា ពួកគេអាចរួមបញ្ចូលគ្នានូវសព្វាវុធយ៉ាងសកម្មជាមួយនឹងបច្ចេកវិទ្យាចុងក្រោយបំផុតនៅក្នុងប្រព័ន្ធស្វយ័ត។ នេះគឺជាអាវុធដែលជិះលើរលកនៃបច្ចេកវិទ្យាខ្ពស់ដែលសម្រេចបាននូវចលនាស្វយ័ត និងសកម្មភាពស្វយ័ត (ខ្ញុំនឹងរៀបរាប់ឱ្យបានលម្អិតបន្ថែមទៀតក្នុងរយៈពេលខ្លី)។

ផ្ទុយទៅវិញ នៅក្នុងករណីទីពីរ យើងនឹងពិចារណាលើបញ្ហានៃប្រព័ន្ធស្វយ័ត ដែលមិនមានទំនោរជាក់លាក់ចំពោះអាវុធទាល់តែសោះ។ ទាំងនេះគឺជាប្រព័ន្ធស្វយ័តដែលកំពុងត្រូវបានបង្កើតឡើងសម្រាប់គោលបំណងផ្សេងទៀត។ ស្រមៃមើលរថយន្តស្វយ័តដូចជារថយន្តដែលបើកបរដោយខ្លួនឯងដែលនឹងត្រូវបានប្រើដើម្បីផ្តល់ភាពចល័តសម្រាប់ទាំងអស់គ្នា និងជាជំនួយក្នុងការកាត់បន្ថយការស្លាប់ប្រចាំឆ្នាំរាប់ពាន់នាក់ដែលកើតឡើងដោយសារតែការបើកបរដោយមនុស្ស និងរថយន្តដែលដំណើរការដោយមនុស្ស (សូមមើលការគ្របដណ្តប់ស៊ីជម្រៅរបស់ខ្ញុំ នៅ តំណភ្ជាប់នៅទីនេះ) មិនមែនជាអាវុធដែលមើលទៅហាក់ដូចជាស្ថិតក្នុងការពិចារណាសម្រាប់កិច្ចខិតខំប្រឹងប្រែងដែលជំរុញសង្គមដែលមានភាពស្វាហាប់ក្នុងការយកមនុស្សចេញពីខាងក្រោយកង់ ហើយដាក់ AI ទៅក្នុងកៅអីអ្នកបើកបរជំនួសវិញ។

ប៉ុន្តែប្រព័ន្ធស្វយ័តដែលគ្មានកំហុសទាំងនោះអាចបំពាក់អាវុធបាន ប្រសិនបើមនុស្សចង់ធ្វើដូច្នេះ។

ខ្ញុំសំដៅទៅលើប្រភេទទីពីរនេះបន្ទាប់មកជា ប្រព័ន្ធស្វយ័តដែលមានអាវុធ. ប្រព័ន្ធស្វយ័តត្រូវបានបង្កើតឡើងដំបូងឡើយ និងប្រកបដោយភាពស្មោះត្រង់ក្នុងគោលបំណងសន្មតថាមិនមែនជាអាវុធ។ ទោះបីជាយ៉ាងនេះក្តី ក្តីសង្ឃឹមដ៏ស្មោះស្ម័គ្រដែលស្រមើស្រមៃត្រូវបានគាំទ្រដោយនរណាម្នាក់នៅកន្លែងណាមួយដែលបានទទួលគំនិតដែលគួរឱ្យជឿជាក់ថាការសមគំនិតនេះអាចជាអាវុធ។ ភ្លាមៗនោះ ប្រព័ន្ធស្វយ័តដែលមើលទៅគួរឲ្យក្នាញ់បានក្លាយទៅជាអាវុធដ៍សាហាវ ដោយដាក់ស្លាកលើទម្រង់នៃសមត្ថភាពអាវុធមួយចំនួន (ដូចជាមនុស្សយន្តដែលមានជើងបួនដូចឆ្កែដែលបានរៀបរាប់ពីមុនដែលមានកាំភ្លើងយន្ត ឬអាវុធស្រដៀងគ្នានេះបន្ថែមលើលក្ខណៈពិសេសរបស់វា) .

ជាអកុសល ប្រភេទទាំងពីរនេះបញ្ចប់នៅកន្លែងតែមួយ ពោលគឺការផ្តល់នូវសមត្ថភាពប្រើប្រាស់ប្រព័ន្ធស្វយ័តសម្រាប់សព្វាវុធនៅលើមូលដ្ឋានដ៍សាហាវ។

ដំណើរ​ការ​ឈាន​ដល់​ចំណុច​បញ្ចប់​នោះ​ទំនង​ជា​ខុស​គ្នា។

សម្រាប់ប្រព័ន្ធស្វយ័តអាវុធទាំងស្រុងដែលត្រូវបានបញ្ចូលជាអាវុធ ទិដ្ឋភាពអាវុធជាទូទៅគឺផ្នែកខាងមុខ និងកណ្តាល។ អ្នក​អាច​នឹង​និយាយ​ថា​ផ្នែក​នៃ​ប្រព័ន្ធ​ស្វយ័ត​ត្រូវ​បាន​រុំ​ព័ទ្ធ​ជុំវិញ​មូលដ្ឋានគ្រឹះ​នៃ​អាវុធ​ណា​ក៏ដោយ​ដែល​កំពុង​ត្រូវ​បាន​ពិចារណា។ ដំណើរការគិតរបស់អ្នកអភិវឌ្ឍន៍គឺស្ថិតនៅតាមបណ្តោយបន្ទាត់នៃរបៀបដែលអាវុធអាចទាញយកប្រយោជន៍ពីការមកដល់នៃប្រព័ន្ធស្វយ័ត។

ទស្សនៈផ្សេងទៀត ជាធម្មតាមិនមាននៅក្នុងផ្នត់គំនិតនោះទេ។ អ្នកអភិវឌ្ឍន៍ចង់ទាញយកប្រព័ន្ធស្វយ័តដែលទំនើបបំផុត ប្រហែលជាសម្រាប់ភាពប្រសើរឡើងនៃមនុស្សជាតិ។ អ្នកអភិវឌ្ឍន៍ទាំងនេះបានដាក់បេះដូង និងព្រលឹងដ៏ស្មោះរបស់ពួកគេចូលទៅក្នុងការបង្កើតប្រព័ន្ធស្វយ័ត។ នេះគឺជាស្នូលនៃការច្នៃប្រឌិតរបស់ពួកគេ។ ពួកគេប្រហែលជាមិននឹកស្មានថាអ្នកណាម្នាក់នឹងដណ្តើមយក ឬបំផ្លាញឧបករណ៍ដែលមានប្រយោជន៍ដោយអព្ភូតហេតុរបស់ពួកគេ។ ពួកគេមានសេចក្តីត្រេកត្រអាលជាមួយនឹងអត្ថប្រយោជន៍សង្គមដែលទាក់ទងនឹងប្រព័ន្ធស្វយ័តដែលមានរាង និងផលិត។

នៅចំណុចខ្លះ ឧបមាថាភាគីទីបីដឹងថាប្រព័ន្ធស្វយ័តអាចនឹងត្រូវបាន rejiggered ទៅជាអាវុធ។ ប្រហែលជាពួកគេបោកបញ្ឆោតអ្នកអភិវឌ្ឍន៍ឱ្យអនុញ្ញាតឱ្យពួកគេមានប្រព័ន្ធស្វយ័តសម្រាប់អ្វីដែលត្រូវបានគេអះអាងថាជាគោលបំណងខ្ពស់។ នៅពីក្រោយការបិទទ្វារ ជនទុច្ចរិតទាំងនេះជ្រើសរើសដោយលួចលាក់បន្ថែមសមត្ថភាពអាវុធដល់ប្រព័ន្ធស្វយ័ត។ Voila, ភាពគ្មានកំហុសប្រែទៅជាអាវុធទាំងស្រុង។

អ្វីៗមិនត្រូវដំណើរការតាមរបៀបនោះទេ។

ប្រហែលជាអ្នកអភិវឌ្ឍន៍ត្រូវបានគេប្រាប់ថាពួកគេកំពុងបង្កើតប្រព័ន្ធស្វយ័តដែលគ្មានកំហុស ប៉ុន្តែការផ្តល់មូលនិធិ ឬដឹកនាំកិច្ចខិតខំប្រឹងប្រែងទាំងនោះមានគោលបំណងផ្សេងទៀតនៅក្នុងចិត្ត។ ប្រហែលជាកិច្ចខិតខំប្រឹងប្រែងនៃប្រព័ន្ធស្វយ័តពិតជាបានចាប់ផ្តើមដោយគ្មានកំហុស ប៉ុន្តែបន្ទាប់មកនៅពេលដែលវិក័យប័ត្រត្រូវបង់ ភាពជាអ្នកដឹកនាំបានកាត់បន្ថយកិច្ចព្រមព្រៀងជាមួយប្រភពមូលនិធិដែលចង់បានប្រព័ន្ធស្វយ័តដោយហេតុផលមិនសមរម្យ។ លទ្ធភាពមួយទៀតគឺថាអ្នកអភិវឌ្ឍន៍បានដឹងថាការប្រើប្រាស់នៅពេលក្រោយអាចជាសម្រាប់ការផលិតអាវុធ ប៉ុន្តែពួកគេគិតថាពួកគេនឹងឆ្លងកាត់ស្ពានដ៏អាក្រក់នោះនៅពេលណា ឬប្រសិនបើវាកើតឡើង។ ល។

មាន​ផ្លូវ​ខុស​គ្នា​ជា​ច្រើន​លើ​របៀប​ដែល​អ្វីៗ​ទាំង​អស់​នេះ​ដើរ​ចេញ។

អ្នកអាចរកឃើញចំណាប់អារម្មណ៍ដែលខ្ញុំបានពិពណ៌នានៅក្នុងជួរមុនថាមានការកើនឡើងការយល់ដឹងអំពីក្រមសីលធម៌ AI ទាក់ទងនឹង ការប្រើប្រាស់ពីរ ធាតុនៃ AI សហសម័យ សូមមើល តំណភ្ជាប់នៅទីនេះ. ខ្ញុំសូមនាំអ្នកឱ្យលឿនបន្តិច។

ប្រព័ន្ធ AI ដែលត្រូវបានស្រមៃសម្រាប់ការល្អ ពេលខ្លះអាចស្ថិតនៅលើចំណុចអាក្រក់ ប្រហែលជាតាមរយៈការផ្លាស់ប្តូរសាមញ្ញមួយចំនួន ហើយត្រូវគ្នានោះត្រូវបានចាត់ទុកថាមានលក្ខណៈប្រើប្រាស់ពីរ។ នៅក្នុងព័ត៌មានថ្មីៗនេះ គឺជាប្រព័ន្ធ AI ដែលត្រូវបានបង្កើតឡើងដើម្បីស្វែងរកសារធាតុគីមីដែលអាចជាឃាតករ ដែលអ្នកអភិវឌ្ឍន៍ចង់ធ្វើឱ្យប្រាកដថា យើងអាចជៀសវាង ឬប្រុងប្រយ័ត្នចំពោះសារធាតុគីមីដែលមិននឹកស្មានដល់បែបនេះ។ ប្រែថា AI អាចត្រូវបានកែសំរួលយ៉ាងងាយស្រួលដើម្បីស្វែងរកសារធាតុគីមីឃាតករទាំងនោះដោយយកចិត្តទុកដាក់ ហើយអាចឱ្យមនុស្សអាក្រក់ដឹងពីសារធាតុគីមីប្រភេទណាដែលអាចមានសក្តានុពលចំអិនសម្រាប់ផែនការអាក្រក់ដ៏អាក្រក់របស់ពួកគេ។

ប្រព័ន្ធស្វយ័តអាចបង្ហាញឱ្យឃើញថាសមទៅនឹងស្រោមសំបុត្រដែលប្រើពីរដងនោះ។

ដល់កម្រិតខ្លះ នោះហើយជាមូលហេតុដែល AI Ethics និង Ethical AI គឺជាប្រធានបទសំខាន់បែបនេះ។ សិក្ខាបទនៃក្រមសីលធម៌ AI ធ្វើឱ្យយើងមានការប្រុងប្រយ័ត្ន។ ពេលខ្លះអ្នកបច្ចេកវិទ្យា AI អាចក្លាយជាមនុស្សចាប់អារម្មណ៍លើបច្ចេកវិទ្យា ជាពិសេសការបង្កើនប្រសិទ្ធភាពនៃបច្ចេកវិទ្យាខ្ពស់។ ពួកគេមិនចាំបាច់ពិចារណាពីផលប៉ះពាល់សង្គមធំជាងនេះទេ។ ការមានផ្នត់គំនិត AI Ethics និងការធ្វើដូច្នេះរួមបញ្ចូលជាមួយការអភិវឌ្ឍន៍ និងការអនុវត្ត AI គឺមានសារៈសំខាន់សម្រាប់ផលិត AI ដែលសមស្រប រួមទាំង (ប្រហែលជាគួរឱ្យភ្ញាក់ផ្អើល ឬហួសចិត្ត) ការវាយតម្លៃអំពីរបៀបដែល AI Ethics ត្រូវបានក្រុមហ៊ុនទទួលយកដោយក្រុមហ៊ុន។

ក្រៅពីការប្រើប្រាស់ច្បាប់សីលធម៌ AI ជាទូទៅ មានសំណួរដែលត្រូវគ្នាថាតើយើងគួរតែមានច្បាប់ដើម្បីគ្រប់គ្រងការប្រើប្រាស់ផ្សេងៗនៃ AI ដែរឬទេ។ ច្បាប់ថ្មីកំពុងត្រូវបានដាក់ពង្រាយនៅកម្រិតសហព័ន្ធ រដ្ឋ និងមូលដ្ឋាន ដែលទាក់ទងនឹងជួរ និងលក្ខណៈនៃរបៀបដែល AI គួរតែត្រូវបានបង្កើត។ ការ​ខិតខំ​ធ្វើ​សេចក្តី​ព្រាង និង​អនុម័ត​ច្បាប់​បែប​នេះ​ជា​បណ្តើរៗ។ ក្រមសីលធម៌ AI ដើរតួជាគម្លាតដែលត្រូវបានពិចារណា យ៉ាងហោចណាស់ ហើយស្ទើរតែនឹងប្រាកដក្នុងកម្រិតខ្លះត្រូវបានដាក់បញ្ចូលទៅក្នុងច្បាប់ថ្មីទាំងនោះ។

ត្រូវ​ដឹង​ថា​មាន​អ្នក​ខ្លះ​ប្រកែក​យ៉ាង​ម៉ឺងម៉ាត់​ថា​យើង​មិន​ត្រូវ​ការ​ច្បាប់​ថ្មី​ដែល​គ្រប​ដណ្ដប់​លើ AI ហើយ​ថា​ច្បាប់​ដែល​មាន​ស្រាប់​របស់​យើង​គឺ​គ្រប់គ្រាន់​ហើយ។ តាមពិតទៅ ពួកគេបានព្រមានថា ប្រសិនបើយើងអនុវត្តច្បាប់ AI មួយចំនួននេះ យើងនឹងកាត់បន្ថយសត្វក្ងោកមាស ដោយកាត់បន្ថយភាពជឿនលឿននៃ AI ដែលផ្តល់អត្ថប្រយោជន៍យ៉ាងច្រើនដល់សង្គម។

ស្វ័យភាព និងអាវុធ ជាសិក្ខាបទពីរ

មានប្រយោគមួយដែលអ្នកខ្លះកំពុងប្រើដើម្បីព្រមានអំពីប្រព័ន្ធស្វយ័តដែលមានអាវុធគ្រប់ប្រភេទ ដែលត្រូវបានបង្កើតជាសមូហភាព។ សត្វល្មូន.

នេះនាំមកនូវទិដ្ឋភាពបន្ថែមដែលយើងគួរពិចារណា។

តើប្រព័ន្ធសព្វាវុធស្វយ័ត និង/ឬប្រព័ន្ធស្វយ័តដែលត្រូវបានបំពាក់សព្វាវុធ ត្រូវតែមានគំនិតផ្តួចផ្តើមរបស់មនុស្សយន្ត ឬឃាតករទេ?

អ្នកខ្លះនឹងប្រកែកថាយើងអាចសម្រេចចិត្តបាន។ មិនស្លាប់ ប្រព័ន្ធស្វយ័តដែលមានអាវុធផងដែរ។ ដូច្នេះ ក្នុងទស្សនៈនោះ វាហាក់ដូចជាមិនសមរម្យខ្លាំងក្នុងការប្រើប្រាស់ឃ្លាដូចជា slaughterbots ឬ killer robots។ វ៉ារ្យ៉ង់មិនស្លាប់អាចសន្មត់ថាអាចបង្ក្រាប ឬបង្កគ្រោះថ្នាក់ដែលមិនមែនជាលទ្ធផលដ៍សាហាវ។ ប្រព័ន្ធ​ទាំង​នោះ​មិន​ត្រូវ​បាន​សម្លាប់​ទេ វា​មាន​សមត្ថភាព​បង្កើត​របួស​តិច​ជាង។ កុំ​និយាយ​ហួស​ពី​សមត្ថភាព ចូរ​និយាយ​ថា​អ្នក​ដែល​ទទូច​ថា​យើង​មិន​ចាំបាច់​ត្រូវ​ជាប់​រវល់​ជាមួយ​នឹង​ម៉ាស៊ីន​សម្លាប់​មនុស្ស​ទាំងស្រុង។

ដូច្នេះ​ហើយ​យើង​អាច​មាន​នេះ​:

  • ប្រព័ន្ធអាវុធស្វយ័តដ៍សាហាវ
  • ប្រព័ន្ធស្វយ័តដ៍សាហាវដែលត្រូវបានបំពាក់ដោយអាវុធ
  • ប្រព័ន្ធអាវុធស្វយ័តមិនស្លាប់
  • ប្រព័ន្ធស្វយ័តមិនស្លាប់ ដែលត្រូវបានបំពាក់ដោយអាវុធ

ជាការពិតណាស់ ការប្រឆាំងគឺថាប្រព័ន្ធស្វយ័តណាមួយដែលត្រូវបានបំពាក់ដោយសព្វាវុធ ហាក់ដូចជាមានសក្តានុពលសម្រាប់ការរអិលចូលទៅក្នុងអាណាចក្រដ៍សាហាវ បើទោះបីជាត្រូវបានគេសន្មត់ថាគ្រាន់តែស្រមៃសម្រាប់ការប្រើប្រាស់នៅលើមូលដ្ឋានដែលមិនមានគ្រោះថ្នាក់ក៏ដោយ។ ការបង្កើនចំនួនពីរជំហាននៃការបន្តពីភាពមិនស្លាប់ទៅដ៍សាហាវនឹងត្រូវបានអនុវត្តយ៉ាងឆាប់រហ័សនៅពេលដែលអ្នកមានអាវុធនៅក្នុងដៃនៅចំកណ្តាលប្រព័ន្ធស្វយ័តមួយ។ អ្នក​នឹង​ពិបាក​ក្នុង​ការ​ផ្តល់​ការ​ធានា​ដែល​មិន​ស្លាប់​នឹង​មិន​បាន​ចូល​ទៅ​ក្នុង​សង្វៀន​ដ៍សាហាវ​ទេ (ទោះបីជា​អ្នក​ខ្លះ​កំពុង​ព្យាយាម​ធ្វើ​ដូច្នេះ​ក្នុង​លក្ខណៈ​គណិតវិទ្យា)។

មុនពេលដែលយើងយល់កាន់តែច្បាស់អំពីប្រធានបទទាំងមូលនៃប្រព័ន្ធស្វយ័ត និងការធ្វើសព្វាវុធនេះ វាអាចជាការងាយស្រួលដើម្បីចង្អុលបង្ហាញអ្វីផ្សេងទៀតដែលថា ប្រហែលជាជាក់ស្តែងគឺមិនចាំបាច់នៅក្នុងគំនិតនោះទេ។

វា​នៅ​ទីនេះ:

  • មានទិដ្ឋភាព AI ដែលជាផ្នែកមួយ និងជាផ្នែកនៃប្រព័ន្ធស្វយ័ត
  • មានទិដ្ឋភាពសព្វាវុធដែលជាផ្នែកខាងសព្វាវុធនៃសមីការនេះ។
  • AI ក៏​អាច​នឹង​មាន​ទំនាក់ទំនង​គ្នា​ជាមួយ​នឹង​សព្វាវុធ​ដែរ។

តោះស្រាយវា។

យើងនឹងសន្មត់ថាប្រព័ន្ធស្វយ័តនាពេលបច្ចុប្បន្ននេះត្រូវការ AI ជាមធ្យោបាយកុំព្យួទ័រជាមូលដ្ឋានក្នុងការនាំយកនូវផ្នែកស្វ័យភាព។ ខ្ញុំលើកឡើងអំពីរឿងនេះ ពីព្រោះអ្នកអាចព្យាយាមជជែកតវ៉ាថា យើងអាចប្រើបច្ចេកវិទ្យា និងបច្ចេកទេសដែលមិនទាក់ទងនឹង AI ដើម្បីធ្វើប្រព័ន្ធស្វយ័ត ដែលទោះបីជាពិតក៏ដោយ វាហាក់ដូចជាតិចទៅៗ។ ជាទូទៅ AI មានទំនោរអនុញ្ញាតឱ្យមានកម្រិតស្វ័យភាពកាន់តែច្រើន ហើយភាគច្រើនកំពុងប្រើប្រាស់បច្ចេកវិទ្យាខ្ពស់ AI ទៅតាមនោះ។

មិនអីទេ ដូច្នេះយើងទទួលបានសមត្ថភាពផ្អែកលើ AI ដែលត្រូវបានបញ្ចូលក្នុងប្រព័ន្ធស្វយ័ត ហើយធ្វើសកម្មភាពណែនាំ និងគ្រប់គ្រងប្រព័ន្ធស្វយ័ត។

រក្សាវានៅចុងម្រាមដៃរបស់អ្នកជាក្បួន។

វាហាក់ដូចជាច្បាស់ថា យើងក៏ត្រូវមានទម្រង់អាវុធខ្លះដែរ ហេតុអ្វីយើងកំពុងពិភាក្សាគ្នានៅទីនេះក្នុងប្រធានបទនៃប្រព័ន្ធស្វយ័ត និង អាវុធ។ ដូច្នេះ បាទ ច្បាស់ណាស់ មានអាវុធមួយប្រភេទ។

ខ្ញុំ​មិន​និយាយ​លម្អិត​អំពី​ប្រភេទ​អាវុធ​ដែល​អាច​ប្រើ​បាន​នោះ​ទេ។ អ្នកគ្រាន់តែអាចជំនួសអាវុធណាក៏ដោយដែលគិតដល់។ ប្រហែលជាមានអាវុធជាក់លាក់។ ប្រហែលជាមានអាវុធបំផ្លិចបំផ្លាញទ្រង់ទ្រាយធំ។ វា​អាច​ជា​អ្វី​មួយ​ដែល​មាន​គ្រាប់​ឬ​គ្រាប់។ វាអាចជាវត្ថុដែលមានសារធាតុគីមី ឬសមាសធាតុងាយនឹងបង្កជាហេតុអាតូមិច។ បញ្ជីគឺគ្មានទីបញ្ចប់។

ការពិចារណាបន្ថែមគឺថាតើ AI មានទំនាក់ទំនងគ្នាជាមួយអាវុធឬអត់។ AI ប្រហែលជាគ្រាន់តែយកអាវុធសម្រាប់ជិះ។ នៅក្នុងករណីនៃមនុស្សយន្តជើងបួនដែលកំពុងបាញ់កាំភ្លើង ប្រហែលជាកាំភ្លើងត្រូវបានបាញ់ដោយមនុស្សដែលមានឧបករណ៍បញ្ជាពីចម្ងាយដែលភ្ជាប់ទៅនឹងការកេះអាវុធ។ មនុស្សយន្ត​ដូច​ឆ្កែ​រុករក​កន្លែង​មួយ ហើយ​បន្ទាប់​មក​វា​ពឹង​មនុស្ស​ពី​ចម្ងាយ​ដើម្បី​ទាញ​គន្លឹះ។

ម្យ៉ាងវិញទៀត AI អាចជាអ្នកទាញគន្លឹះដូចដែលវាធ្លាប់មាន។ AI អាច​នឹង​ត្រូវ​បាន​បង្កើត​ឡើង​ដើម្បី​មិន​ត្រឹម​តែ​ធ្វើ​ការ​រុករក និង​ធ្វើ​ចលនា​ប៉ុណ្ណោះ​ទេ ប៉ុន្តែ​ថែម​ទាំង​ធ្វើ​ឲ្យ​អាវុធ​សកម្ម​ផង​ដែរ។ ក្នុងន័យនេះ AI កំពុងធ្វើអ្វីៗគ្រប់យ៉ាងពី A ដល់ Z។ គ្មានការពឹងផ្អែកលើមនុស្សពីចម្ងាយដើម្បីអនុវត្តផ្នែកខាងសព្វាវុធនៃវត្ថុនោះទេ។ AI ត្រូវបានកម្មវិធីដើម្បីធ្វើវាជំនួសវិញ។

ដើម្បីបញ្ជាក់ឱ្យច្បាស់ នៅក្នុងករណីនៃការប្រើប្រាស់ពិសេសនេះនៃប្រព័ន្ធស្វយ័តដែលមានអាវុធ យើងមានលទ្ធភាពបែបនេះ៖

  • ប្រព័ន្ធស្វយ័ត៖ AI ដំណើរការប្រព័ន្ធស្វយ័តទាំងស្រុងដោយខ្លួនឯង។
  • ប្រព័ន្ធស្វយ័ត៖ AI ដំណើរការប្រព័ន្ធស្វយ័ត ប៉ុន្តែមនុស្សក្នុងរង្វង់ក៏អាចធ្វើអន្តរាគមន៍ផងដែរ។
  • អាវុធ៖ មនុស្សពីចម្ងាយរត់អាវុធ (AI មិន)
  • អាវុធ៖ AI ដំណើរការសព្វាវុធ ប៉ុន្តែមនុស្សក្នុងរង្វង់ក៏អាចធ្វើអន្តរាគមន៍ផងដែរ។
  • អាវុធ៖ AI ដំណើរការអាវុធទាំងស្រុងដោយខ្លួនឯង។

ពីមុនខ្ញុំបានគ្របដណ្តប់លើការប្រែប្រួលនៃការមានមនុស្សនៅក្នុងរង្វង់ទាក់ទងនឹងប្រព័ន្ធស្វយ័ត និងរថយន្តស្វយ័ត សូមមើល តំណភ្ជាប់នៅទីនេះ.

នៅពេលអ្នកមើលវីដេអូដែលផ្តោតលើការសប្បាយទាំងនោះនៃការរាំ និងហាត់មនុស្សយន្តជើងបួន ជាធម្មតាពួកវាត្រូវបានគេសន្មត់ថាជាមនុស្សយន្តដែលដំណើរការដោយ AI ទាំងស្រុង (ល្អ នោះជាទម្លាប់ ឬត្រូវបានចាត់ទុកថាជាសុជីវធម៌ដ៏ត្រឹមត្រូវក្នុងចំណោមមនុស្សយន្តទាំងនោះដែលមានជម្រៅជ្រៅ។ លើបញ្ហាទាំងនេះ)។ នោះហើយជាអ្វីដែលអ្នកក៏អាចសន្មតបានយ៉ាងត្រឹមត្រូវ។ ជា​ការ​ពិត​ណាស់ អ្នក​មិន​ដឹង​ថា​ជា​ការ​ពិត​។ វា​អាច​ថា​ប្រតិបត្តិករ​មនុស្ស​ដាច់​ស្រយាល​កំពុង​ដឹកនាំ​មនុស្ស​យន្ត។ វាក៏មានលទ្ធភាពដែល AI ធ្វើជាផ្នែកមួយនៃការណែនាំ ហើយប្រតិបត្តិករមនុស្សពីចម្ងាយក៏ធ្វើដូច្នេះដែរ ប្រហែលជាជួយដល់ AI ប្រសិនបើមនុស្សយន្តចូលដល់ទីតាំងដ៏លំបាក ហើយមិនអាចគណនាមធ្យោបាយដែលអាចសម្រេចបានដើម្បីដើរដោយសេរី។

ចំណុចសំខាន់នៅទីនេះគឺថាមានរសជាតិជាច្រើនអំពីរបៀបដែល AI និងប្រព័ន្ធស្វយ័ត និងអាវុធអាចបញ្ចូលគ្នាបាន។ ខ្លះមាន AI ដែលដំណើរការប្រព័ន្ធស្វយ័ត តែមិនដំណើរការអាវុធ។ ប្រហែលជាមនុស្សរត់អាវុធពីចម្ងាយ។ មុំមួយទៀតគឺថាសព្វាវុធប្រហែលជាត្រូវបានធ្វើឱ្យសកម្មជាមុន ហើយប្រព័ន្ធស្វយ័តបញ្ជូនអាវុធដែលបានធ្វើឱ្យសកម្ម ដូច្នេះ AI មិនបានចូលរួមក្នុងការកេះអាវុធដោយផ្ទាល់ទេ ហើយជំនួសឱ្យការដើរតួជាយានដឹកជញ្ជូន។ ហើយវាអាចថា AI គឺជាសុភាសិត jack-of-all-trades និងធ្វើផ្នែកទាំងមូលនៃទិដ្ឋភាពប្រព័ន្ធស្វយ័តចំពោះការប្រើប្រាស់អាវុធផងដែរ។

ជ្រើសរើសរបស់អ្នក។

ទន្ទឹមនឹងនោះ សូមជ្រាបថា មនុស្សក្នុងរង្វង់គឺជាកត្តាដ៏ធំមួយនៅពេលនិយាយអំពីការជជែកពិភាក្សាលើប្រធានបទនេះ។

បន្ទាត់បែងចែកដោយអ្នកខ្លះគឺថាប្រសិនបើ AI កំពុងធ្វើការកំណត់គោលដៅនិងបាញ់ (ឬអាវុធអ្វីក៏ដោយ) បន្ទាប់មកឧបករណ៍និង caboodle ទាំងមូលបានឆ្លងចូលទៅក្នុងដីគ្មាន។ នេះហាក់ដូចជាខុសពីសព្វាវុធបាញ់ និងបំភ្លេចធម្មតា ដែលមានជម្រើសកំណត់ទុកជាមុនរបស់មនុស្ស ដូចជាយន្តហោះដ្រូនល្បាត ដែលមានកាំជ្រួចត្រៀមសម្រាប់បាញ់ដល់គោលដៅដែលត្រូវបាន រួចហើយ ជ្រើសរើសដោយមនុស្ស។

អ្នកខ្លះឆ្ងល់ថាហេតុអ្វីបានជាប្រព័ន្ធស្វយ័តដែលត្រូវបានបំពាក់ដោយសព្វាវុធមិនតែងតែរួមបញ្ចូលមនុស្សនៅក្នុងរង្វង់ពេញមួយដំណើរការនៃប្រព័ន្ធស្វយ័តដែលកំពុងស្ថិតក្នុងស្ថានភាពដែលកំពុងដំណើរការយ៉ាងសកម្ម។ ហាក់បីដូចជាយើងប្រហែលជាប្រសើរជាងប្រសិនបើតម្រូវការដ៏រឹងមាំមួយគឺថាប្រព័ន្ធស្វយ័តដែលមានសព្វាវុធបែបនេះត្រូវតែមានមនុស្សនៅក្នុងរង្វង់ ទាំងការធ្វើដូច្នេះសម្រាប់ប្រតិបត្តិការនៃប្រព័ន្ធស្វយ័ត ឬសម្រាប់ប្រតិបត្តិការអាវុធ (ឬសម្រាប់ទាំងពីរ) . ការរក្សាដៃមនុស្សដែលមានការសន្មត់ និងស្ថិរភាពនៅក្នុងល្បាយ AI នេះអាចហាក់ដូចជាមានភាពវៃឆ្លាតទាំងស្រុង។

ត្រៀមខ្លួនសម្រាប់បញ្ជីវែងនៃហេតុផលដែលវាមិនអាចទៅរួចនោះទេ។

ពិចារណាពីការលំបាកទាំងនេះ៖

  • មនុស្សក្នុងរង្វង់ប្រហែលមិនលឿនគ្រប់គ្រាន់ក្នុងការឆ្លើយតបទាន់ពេលវេលាទេ។
  • Human-in-the-loop ប្រហែលជាមិនមានព័ត៌មានគ្រប់គ្រាន់ដើម្បីឆ្លើយតបយ៉ាងត្រឹមត្រូវនោះទេ។
  • Human-in-the-loop ប្រហែលជាមិនមានទេនៅពេលចាំបាច់
  • មនុស្សនៅក្នុងរង្វង់អាចមិនត្រូវបានសម្រេចចិត្ត ហើយនឹងមិនធ្វើសកម្មភាពនៅពេលចាំបាច់
  • មនុស្សនៅក្នុងរង្វង់អាចធ្វើការសម្រេចចិត្ត "ខុស" (ទាក់ទង)
  • Human-in-the-loop ប្រហែលជាមិនអាចចូលប្រើបានពីប្រព័ន្ធនៅពេលចាំបាច់
  • មនុស្ស​ក្នុង​រង្វង់​អាច​នឹង​ច្របូកច្របល់ និង​ត្រូវ​បាន​គ្របសង្កត់

អ្នកពិតជាត្រូវបានល្បួងឱ្យមើលបញ្ជីនៃភាពទន់ខ្សោយ និងដែនកំណត់របស់មនុស្សនោះ ហើយបន្ទាប់មកឈានដល់ការសន្និដ្ឋានដ៏ឧឡារិកថា វាសមហេតុផលក្នុងការកាត់ចេញនូវមនុស្សនៅក្នុងរង្វង់ ហើយតែងតែប្រើ AI ជំនួសវិញ។ នេះអាចជាការមិនរាប់បញ្ចូលមនុស្សក្នុងរង្វង់ ឬប្រហែលជាមាន AI អាចបដិសេធការរចនារបស់មនុស្សនៅក្នុងរង្វិលជុំ។ សូមមើលការវិភាគរបស់ខ្ញុំអំពីរបៀបដែលការខ្វែងគំនិតគ្នារវាង AI និងមនុស្សក្នុងរង្វង់អាចនាំឱ្យមានស្ថានភាពមិនច្បាស់លាស់ គ្របដណ្តប់នៅ តំណភ្ជាប់នៅទីនេះ.

ជាញឹកញយ បញ្ជីមើលងាយនៃប្រភេទនៃការធ្លាក់ចុះដែលផ្តោតលើមនុស្សក្នុងពេលជាក់ស្តែងទាំងនេះត្រូវបានទុកដោយខ្លួនវាផ្ទាល់ ហើយទុកឱ្យមានការចាប់អារម្មណ៍ថា AI ត្រូវតែលោត និងកំណត់ជម្រើសដ៏ឆ្លាតវៃជាងការមានមនុស្សនៅក្នុងរង្វង់។ . កុំធ្លាក់ក្នុងអន្ទាក់ក្បត់នោះ។ មាន​ការ​ដោះដូរ​គ្នា​យ៉ាង​ខ្លាំង​ដែល​ពាក់ព័ន្ធ។

ពិចារណាពីផលប៉ះពាល់ទាំងនេះនៃ AI៖

  • AI អាច​នឹង​ជួប​បញ្ហា​មួយ​ដែល​ធ្វើ​ឱ្យ​វា​វង្វេង
  • AI អាច​នឹង​ត្រូវ​បាន​គ្រប​ដណ្តប់ និង​បិទ​ដោយ​មិន​ឆ្លើយតប
  • AI អាចមានកំហុសអ្នកអភិវឌ្ឍន៍ដែលបណ្តាលឱ្យមានអាកប្បកិរិយាខុសប្រក្រតី
  • AI អាច​នឹង​ត្រូវ​បាន​ខូច​ដោយ​មេរោគ​មនុស្ស​អាក្រក់​ដែល​ដាក់​បញ្ចូល
  • AI អាច​នឹង​ត្រូវ​បាន​គ្រប់គ្រង​ដោយ​អ្នក​លួច​អ៊ីនធឺណិត​ក្នុង​ពេល​ជាក់ស្តែង
  • AI អាចត្រូវបានចាត់ទុកថាមិនអាចទាយទុកជាមុនបានដោយសារតែភាពស្មុគស្មាញ
  • AI អាច​នឹង​ធ្វើ​ការ​សម្រេច​ចិត្ត "ខុស" (ទាក់ទង)

ខ្ញុំជឿជាក់ថាអ្នកអាចមើលឃើញថាមានការដោះដូររវាងការប្រើប្រាស់មនុស្សក្នុងរង្វង់ ធៀបនឹងការពឹងផ្អែកតែលើ AI ប៉ុណ្ណោះ។ ក្នុងករណីដែលអ្នកត្រូវបានល្បួងឱ្យណែនាំថាដំណោះស្រាយដែលត្រៀមរួចជាស្រេចគឺត្រូវប្រើទាំងពីរ ខ្ញុំចង់បញ្ជាក់ថាអ្នកអាចទទួលបានល្អបំផុតនៃពិភពលោកទាំងពីរ ប៉ុន្តែអ្នកក៏អាចទទួលបានអាក្រក់បំផុតនៃពិភពលោកទាំងពីរផងដែរ។ កុំសន្មត់ថា វានឹងតែងតែ និងប្រាកដ ជាល្អបំផុតនៃពិភពលោកទាំងពីរ។

អ្នក​ប្រហែល​ជា​មាន​ការ​ភ្ញាក់​ផ្អើល​បន្តិច​ពី​ការ​ធ្លាក់​ចុះ​មួយ​ក្នុង​ចំណោម​ការ​ចុះ​បញ្ជី​ខាង​លើ​អំពី AI ជាពិសេស​ថា AI អាច​ជា មិនអាចទាយទុកជាមុន. យើងធ្លាប់ជឿថា AI ត្រូវបានគេសន្មត់ថាជាឡូជីខល និងច្បាស់លាស់តាមគណិតវិទ្យា។ ដូចនេះ អ្នកក៏អាចរំពឹងថា AI នឹងអាចទស្សន៍ទាយបានយ៉ាងពេញលេញ។ យើងគួរតែដឹងច្បាស់ថា AI នឹងធ្វើអ្វី។ រយៈពេល, ចុងបញ្ចប់នៃរឿង។

សូមអភ័យទោសចំពោះការផ្ទុះប៉េងប៉ោងនោះ ប៉ុន្តែទេវកថានៃការទស្សន៍ទាយនេះគឺជាការខុស។ ទំហំ និងភាពស្មុគ្រស្មាញនៃ AI សម័យថ្មីនេះ ច្រើនតែជាភាពច្របូកច្របល់ដែលប្រឆាំងនឹងការព្យាករណ៍យ៉ាងល្អឥតខ្ចោះ។ នេះត្រូវបានគេមើលឃើញនៅក្នុងពាក្យចចាមអារ៉ាមអំពីសីលធម៌ AI អំពីការប្រើប្រាស់ Machine Learning (ML) និង Deep Learning (DL) មួយចំនួននាពេលបច្ចុប្បន្ននេះ។ ខ្ញុំនឹងពន្យល់បន្តិចទៀត។

ដូចគ្នានេះផងដែរ អ្នកប្រហែលជាចង់មើលការវិភាគចុងក្រោយរបស់ខ្ញុំអំពីនិន្នាការនាពេលខាងមុខឆ្ពោះទៅរកការព្យាយាមធានានូវប្រព័ន្ធ AI ដែលអាចផ្ទៀងផ្ទាត់បាន និងត្រឹមត្រូវតាមរូបមន្តគណិតវិទ្យា តាមរយៈសុវត្ថិភាព AI ចុងក្រោយបំផុតនៅ តំណភ្ជាប់នៅទីនេះ.

រោយរាយលើច្បាប់ផ្លូវ

ខ្ញុំបានលើកឡើងពីសញ្ញាណនៃគោលដៅ និងការកំណត់គោលដៅ ដែលជាពាក្យដែលផ្ទុកលើសទម្ងន់ ដែលសមនឹងទទួលបានការយកចិត្តទុកដាក់យ៉ាងខ្លាំង។

យើងអាចពិចារណារឿងនេះបាន៖

  • គោលដៅដែលជាមនុស្ស
  • គោលដៅដែលមិនមែនជាមនុស្ស ប៉ុន្តែជាសត្វមានជីវិត
  • គោលដៅដែលត្រូវបានបកស្រាយថាជាទ្រព្យសម្បត្តិ

ឧបមាថាយើងមានប្រព័ន្ធស្វយ័តដែលត្រូវបានបំពាក់ដោយអាវុធ។ AI ត្រូវបានប្រើដើម្បីដឹកនាំប្រព័ន្ធស្វយ័ត និងប្រើប្រាស់សម្រាប់សព្វាវុធ។ AI ធ្វើអ្វីៗគ្រប់យ៉ាងពី A ដល់ Z។ មិនមានការផ្តល់សម្រាប់មនុស្សក្នុងរង្វង់ទេ។ ទាក់ទងនឹងការកំណត់គោលដៅ AI នឹងជ្រើសរើសគោលដៅ។ មិនមានការកំណត់ជាមុនដែលត្រូវបានបង្កើតឡើងដោយមនុស្សទេ។ ផ្ទុយទៅវិញ AI ត្រូវបានគេរៀបចំកម្មវិធីដើម្បីបញ្ជាក់ជាទូទៅថាតើមានមនុស្សដែលត្រូវកំណត់គោលដៅដែរឬទេ (ប្រហែលជាការស្កែនមើលសកម្មភាពអរិភាព ប្រភេទឯកសណ្ឋានមួយចំនួន ហើយដូច្នេះនៅលើ)។

ជាមួយខ្ញុំរហូតមកដល់ពេលនេះ?

សេណារីយ៉ូ​នេះ​ជា​រឿង​មួយ​ដែល​បង្ក​ឱ្យ​មាន​ការ​តវ៉ា​ខ្លាំង​បំផុត​អំពី​ប្រព័ន្ធ​ស្វយ័ត​ដែល​មាន​អាវុធ។

ការព្រួយបារម្ភដែលបានបញ្ជាក់គឺថា AI កំពុងធ្វើ (យ៉ាងហោចណាស់) រឿងបីដែលវាមិនគួរត្រូវបានអនុញ្ញាតឱ្យធ្វើ:

  • គោលដៅមនុស្សជាគោលដៅ
  • ការកំណត់គោលដៅដោយមិនប្រើមនុស្សក្នុងរង្វង់
  • សកម្មភាពដែលអាចទាយទុកជាមុនបាន។ly

សូមកត់សម្គាល់ថាមានការលើកឡើងពីការព្រួយបារម្ភអំពី AI ដែលមិនអាចទាយទុកជាមុនបាន។ វាអាចថា ទោះបីជា AI ត្រូវបានកម្មវិធីកំណត់គោលដៅមនុស្សប្រភេទមួយចំនួនក៏ដោយ ក៏កម្មវិធី AI មិនមែនជាអ្វីដែលយើងគិតនោះទេ ហើយ AI បានបញ្ចប់ការកំណត់គោលដៅ "មិត្តភាព" បន្ថែមពីលើអ្វីដែល AI ត្រូវបានគេសន្មត់ថាជា "សត្រូវ។ ” (ឬប្រហែលជាជំនួសឱ្យ) ។ លើសពីនេះ បើទោះបីជាយើងជ្រើសរើសបញ្ចូលការផ្ដល់ជូនមនុស្សក្នុងរង្វង់ក៏ដោយ ភាពមិនអាចទាយទុកជាមុនបាននៃ AI អាចមានន័យថានៅពេលដែល AI ត្រូវបានគេសន្មត់ថានឹងធ្វើការសន្ទនាជាមួយមនុស្សក្នុងរង្វង់នោះ វាបរាជ័យក្នុងការធ្វើ។ ដូច្នេះហើយធ្វើសកម្មភាពដោយគ្មានការអន្តរាគមន៍ពីមនុស្ស។

អ្នកប្រហែលជាចាប់អារម្មណ៍ថា គណៈកម្មាធិការអន្តរជាតិនៃកាកបាទក្រហម (ICRC) បានផ្តល់ជំហរបីចំណុចអំពីប្រព័ន្ធអាវុធស្វយ័ត ដែលរៀបរាប់លម្អិតអំពីប្រភេទនៃកង្វល់ទាំងនេះ (តាមគេហទំព័រ ICRC)៖

1. “ប្រព័ន្ធអាវុធស្វយ័តដែលមិនអាចទាយទុកជាមុនបានគួរតែត្រូវបានគ្រប់គ្រងយ៉ាងច្បាស់លាស់ ចេញជាពិសេសដោយសារតែឥទ្ធិពលមិនរើសអើងរបស់ពួកគេ។ នេះនឹងសម្រេចបានល្អបំផុតជាមួយនឹងការហាមឃាត់លើប្រព័ន្ធអាវុធស្វយ័តដែលត្រូវបានរចនាឡើង ឬប្រើប្រាស់ក្នុងលក្ខណៈដែលឥទ្ធិពលរបស់វាមិនអាចយល់បានគ្រប់គ្រាន់ ព្យាករណ៍ និងពន្យល់បាន”។

2. “ដោយពិចារណាលើក្រមសីលធម៌ដើម្បីការពារមនុស្សជាតិ និងដើម្បីរក្សានូវច្បាប់មនុស្សធម៌អន្តរជាតិសម្រាប់ការការពារជនស៊ីវិល និងអ្នកប្រយុទ្ធ hors de combat, ការប្រើប្រាស់ប្រព័ន្ធអាវុធស្វយ័តដើម្បីកំណត់គោលដៅមនុស្សគួរតែត្រូវបានបដិសេធ. នេះអាចសម្រេចបានល្អបំផុតតាមរយៈការហាមឃាត់លើប្រព័ន្ធអាវុធស្វយ័តដែលត្រូវបានរចនាឡើង ឬប្រើដើម្បីអនុវត្តកម្លាំងប្រឆាំងនឹងមនុស្ស”។

3. “ដើម្បីការពារជនស៊ីវិល និងវត្ថុស៊ីវិល រក្សាវិធាននៃច្បាប់មនុស្សធម៌អន្តរជាតិ និងការពារមនុស្សជាតិ ការរចនា និងការប្រើប្រាស់ប្រព័ន្ធអាវុធស្វយ័តដែលមិនត្រូវបានហាមឃាត់គួរតែត្រូវបានគ្រប់គ្រង រួមទាំងតាមរយៈការរួមបញ្ចូលគ្នានៃ៖ ដែនកំណត់លើប្រភេទនៃគោលដៅដូចជាការដាក់កម្រិតពួកវាចំពោះវត្ថុដែលជាកម្មវត្ថុយោធាដោយធម្មជាតិ។ ដែនកំណត់លើរយៈពេល វិសាលភាពភូមិសាស្រ្ត និងទំហំប្រើប្រាស់រួមទាំងដើម្បីបើកការវិនិច្ឆ័យ និងការគ្រប់គ្រងរបស់មនុស្សទាក់ទងនឹងការវាយប្រហារជាក់លាក់មួយ។ ដែនកំណត់លើស្ថានភាពនៃការប្រើប្រាស់ដូចជាការដាក់កម្រិតពួកគេក្នុងស្ថានភាពដែលជនស៊ីវិល ឬវត្ថុស៊ីវិលមិនមានវត្តមាន។ rតម្រូវការសម្រាប់អន្តរកម្មមនុស្ស - ម៉ាស៊ីនជាពិសេស ដើម្បីធានាបាននូវការត្រួតពិនិត្យរបស់មនុស្សប្រកបដោយប្រសិទ្ធភាព និងការអន្តរាគមន៍ទាន់ពេលវេលា និងការធ្វើឱ្យអសកម្ម។

នៅលើទស្សនវិស័យពាក់ព័ន្ធ អង្គការសហប្រជាជាតិ (UN) តាមរយៈអនុសញ្ញាស្តីពីអាវុធសាមញ្ញមួយចំនួន (CCW) នៅទីក្រុងហ្សឺណែវ បានបង្កើតគោលការណ៍ណែនាំមិនជាប់កាតព្វកិច្ចចំនួន XNUMX ស្តីពីអាវុធស្វយ័តដ៍សាហាវ នេះបើយោងតាមរបាយការណ៍ផ្លូវការដែលបានបង្ហោះលើអ៊ីនធឺណិត (រួមបញ្ចូលឯកសារយោងទៅផ្នែកមនុស្សធម៌អន្តរជាតិពាក់ព័ន្ធ។ ច្បាប់ ឬបទប្បញ្ញត្តិ IHL៖

(ក) ច្បាប់មនុស្សធម៌អន្តរជាតិបន្តអនុវត្តយ៉ាងពេញលេញចំពោះប្រព័ន្ធសព្វាវុធទាំងអស់ រួមទាំងការអភិវឌ្ឍន៍សក្តានុពល និងការប្រើប្រាស់ប្រព័ន្ធអាវុធស្វយ័តដ៍សាហាវ។

(ខ) ទំនួលខុសត្រូវរបស់មនុស្សចំពោះការសម្រេចចិត្តលើការប្រើប្រាស់ប្រព័ន្ធសព្វាវុធត្រូវតែរក្សាទុក ចាប់តាំងពីការទទួលខុសត្រូវមិនអាចផ្ទេរទៅម៉ាស៊ីន។ នេះគួរតែត្រូវបានពិចារណានៅទូទាំងវដ្តជីវិតទាំងមូលនៃប្រព័ន្ធអាវុធ;

(គ) អន្តរកម្មរវាងមនុស្ស និងម៉ាស៊ីន ដែលអាចមានទម្រង់ផ្សេងៗគ្នា និងត្រូវបានអនុវត្តនៅដំណាក់កាលផ្សេងៗនៃវដ្តជីវិតរបស់អាវុធ គួរតែធានាថា ការប្រើប្រាស់សក្តានុពលនៃប្រព័ន្ធអាវុធដោយផ្អែកលើបច្ចេកវិទ្យាដែលកំពុងរីកចម្រើននៅក្នុងតំបន់នៃប្រព័ន្ធអាវុធស្វយ័តដ៍សាហាវគឺស្ថិតនៅក្នុង ការអនុលោមតាមច្បាប់អន្តរជាតិជាធរមាន ជាពិសេស IHL ។ ក្នុងការកំណត់គុណភាព និងវិសាលភាពនៃអន្តរកម្មរវាងមនុស្ស និងម៉ាស៊ីន កត្តាជាច្រើនគួរតែត្រូវបានពិចារណា រួមទាំងបរិបទប្រតិបត្តិការ និងលក្ខណៈ និងសមត្ថភាពនៃប្រព័ន្ធអាវុធទាំងមូល។

(ឃ) ទំនួលខុសត្រូវក្នុងការអភិវឌ្ឍន៍ ការដាក់ពង្រាយ និងប្រើប្រាស់ប្រព័ន្ធសព្វាវុធដែលកំពុងលេចឡើងក្នុងក្របខណ្ឌនៃ CCW ត្រូវតែត្រូវបានធានាដោយអនុលោមតាមច្បាប់អន្តរជាតិជាធរមាន រួមទាំងតាមរយៈប្រតិបត្តិការនៃប្រព័ន្ធទាំងនោះនៅក្នុងខ្សែសង្វាក់ទទួលខុសត្រូវនៃការបញ្ជា និងការគ្រប់គ្រងរបស់មនុស្ស។

(ង) អនុលោមតាមកាតព្វកិច្ចរបស់រដ្ឋក្រោមច្បាប់អន្តរជាតិ ក្នុងការសិក្សា ការអភិវឌ្ឍន៍ ការទិញយក ឬការទទួលយកអាវុធថ្មី មធ្យោបាយ ឬវិធីធ្វើសង្គ្រាម ការប្តេជ្ញាចិត្តត្រូវតែធ្វើឡើងថាតើការងាររបស់ខ្លួននឹងស្ថិតក្នុងកាលៈទេសៈណាក៏ដោយ ឬគ្រប់កាលៈទេសៈ។ ហាមឃាត់ដោយច្បាប់អន្តរជាតិ;

(f) នៅពេលបង្កើត ឬទទួលបានប្រព័ន្ធអាវុធថ្មី ដោយផ្អែកលើបច្ចេកវិទ្យាដែលកំពុងរីកចម្រើននៅក្នុងតំបន់នៃប្រព័ន្ធអាវុធស្វយ័តដ៍សាហាវ សន្តិសុខរាងកាយ ការការពារដែលមិនមែនជារូបវន្តសមរម្យ (រួមទាំងសន្តិសុខតាមអ៊ីនធឺណិតប្រឆាំងនឹងការលួចចូល ឬការក្លែងបន្លំទិន្នន័យ) ហានិភ័យនៃការទទួលបានដោយក្រុមភេរវករ។ និងហានិភ័យនៃការរីកសាយគួរតែត្រូវបានពិចារណា;

(g) ការវាយតម្លៃហានិភ័យ និងវិធានការកាត់បន្ថយគួរតែជាផ្នែកនៃការរចនា ការអភិវឌ្ឍន៍ ការធ្វើតេស្ត និងវដ្តនៃការដាក់ពង្រាយនៃបច្ចេកវិទ្យាដែលកំពុងរីកចម្រើននៅក្នុងប្រព័ន្ធសព្វាវុធណាមួយ។

(h) ការពិចារណាគួរតែត្រូវបានផ្តល់ទៅឱ្យការប្រើប្រាស់បច្ចេកវិទ្យាដែលកំពុងរីកចម្រើននៅក្នុងតំបន់នៃប្រព័ន្ធអាវុធស្វយ័តដ៍សាហាវក្នុងការរក្សាការអនុលោមតាម IHL និងកាតព្វកិច្ចច្បាប់អន្តរជាតិដែលអាចអនុវត្តបានផ្សេងទៀត។

(i) ក្នុងការបង្កើតវិធានការគោលនយោបាយដែលមានសក្តានុពល បច្ចេកវិទ្យាដែលកំពុងរីកចម្រើននៅក្នុងតំបន់នៃប្រព័ន្ធអាវុធស្វយ័តដ៍សាហាវមិនគួរត្រូវបាន anthropomorphized;

(j) ការពិភាក្សា និងវិធានការគោលនយោបាយដែលមានសក្តានុពលដែលបានធ្វើឡើងនៅក្នុងបរិបទនៃ CCW មិនគួររារាំងដល់វឌ្ឍនភាព ឬលទ្ធភាពទទួលបានការប្រើប្រាស់ដោយសន្តិវិធីនៃបច្ចេកវិទ្យាស្វ័យភាពឆ្លាតវៃនោះទេ។

(k) CCW ផ្តល់នូវក្របខណ្ឌសមស្របមួយសម្រាប់ការដោះស្រាយបញ្ហានៃបច្ចេកវិទ្យាដែលកំពុងរីកចម្រើននៅក្នុងតំបន់នៃប្រព័ន្ធអាវុធស្វយ័តដ៍សាហាវក្នុងបរិបទនៃគោលបំណង និងគោលបំណងនៃអនុសញ្ញា ដែលស្វែងរកការធ្វើឱ្យមានតុល្យភាពរវាងភាពចាំបាច់ខាងយោធា និងការពិចារណាផ្នែកមនុស្សធម៌។

Quandary យើងរកឃើញខ្លួនឯងនៅក្នុង

ច្បាប់សង្គ្រាម ច្បាប់ជម្លោះប្រដាប់អាវុធ ឬ IHL (ច្បាប់មនុស្សធម៌អន្តរជាតិ) ទាំងនេះ ដើរតួជាមគ្គុទ្ទេសក៍ដ៏សំខាន់ និងជោគជ័យជានិច្ចក្នុងការពិចារណាពីអ្វីដែលយើងអាចព្យាយាមធ្វើអំពីការមកដល់នៃប្រព័ន្ធស្វយ័តដែលបំពាក់ដោយសព្វាវុធ មិនថាដោយការរចនាសោ ឬ ដោយវិធីសាស្រ្តក្រោយការពិត។

យើង​អាច​ប្រាថ្នា​ដោយ​ស្មោះ​ថា ការ​ហាមប្រាម​លើ​ប្រព័ន្ធ​ស្វយ័ត​ដែល​មាន​អាវុធ​ដ៍សាហាវ​នឹង​ត្រូវ​បាន​អនុវត្ត​យ៉ាង​តឹងរ៉ឹង និង​គោរព​ប្រតិបត្តិ។ បញ្ហាគឺថា បន្ទប់ដែលមានភាពច្របូកច្របល់ជាច្រើនត្រូវបានចងភ្ជាប់នឹងភាពល្ងង់ខ្លៅដែលត្រូវបានរកឃើញនៅក្នុងបម្រាមដ៏ស្មោះត្រង់បំផុត។ ដូចដែលពួកគេនិយាយ ច្បាប់គឺចង់បំបែក។ អ្នកអាចភ្នាល់ថាកន្លែងដែលអ្វីៗមានភាពធូររលុង riffraff នឹងបញ្ចេញចន្លោះប្រហោង ហើយព្យាយាមក្រឡេកមើលផ្លូវរបស់ពួកគេជុំវិញច្បាប់។

នេះគឺជាចន្លោះប្រហោងដែលអាចមានមួយចំនួនដែលសក្តិសមក្នុងការពិចារណា៖

  • ការ​ទាមទារ​នៃ​ការ​មិន​ស្លាប់​។ ធ្វើ មិនស្លាប់ ប្រព័ន្ធអាវុធស្វយ័ត (ហាក់បីដូចជាមិនអីទេ ព្រោះវានៅក្រៅព្រំដែនហាមឃាត់) ដែលបន្ទាប់មកអ្នកអាចផ្លាស់ប្តូរបន្តិចបន្តួចទៅជាដ៍សាហាវ (អ្នកនឹងហួសពីការហាមឃាត់នៅនាទីចុងក្រោយ)។
  • ការទាមទារប្រព័ន្ធស្វយ័តតែប៉ុណ្ណោះ. រក្សាការហាមប្រាមដោយមិនបង្កើតប្រព័ន្ធស្វយ័តដែលផ្តោតសំខាន់លើគ្រោះថ្នាក់ ទន្ទឹមនឹងនោះ ធ្វើឱ្យមានវឌ្ឍនភាពច្រើនលើការបង្កើតប្រព័ន្ធស្វយ័តប្រចាំថ្ងៃដែលមិនទាន់ (មិនទាន់) បំពាក់សព្វាវុធ ប៉ុន្តែអ្នកអាចធ្វើឡើងវិញនូវអាវុធ។
  • ការទាមទារមិនរួមបញ្ចូលគ្នាជាតែមួយ. ប្រព័ន្ធស្វយ័តសិប្បកម្មដែលមិនមានសព្វាវុធទាល់តែសោះ ហើយនៅពេលដែលពេលវេលាមកដល់ ការផលិតសព្វាវុធបែប piggyback ដែលអ្នកអាចព្យាយាមប្រកែកយ៉ាងខ្លាំងថាពួកវាជាធាតុពីរដាច់ដោយឡែកពីគ្នា ដូច្នេះហើយបានប្រកែកថាពួកគេមិនធ្លាក់ក្នុងរង្វង់មូលនៃវត្ថុទាំងអស់ក្នុងមួយ។ ប្រព័ន្ធអាវុធស្វយ័ត ឬបងប្អូនជីដូនមួយរបស់វា។
  • អះអាង​ថា​វា​មិន​មាន​ស្វ័យភាព. បង្កើត​ប្រព័ន្ធ​សព្វាវុធ​ដែល​ហាក់​មិន​មាន​សមត្ថភាព​ស្វយ័ត។ ទុកបន្ទប់នៅក្នុងប្រព័ន្ធដែលសន្មតថាមិនមែនជាស្វយ័តសម្រាប់ការទម្លាក់ស្វ័យភាពដែលមានមូលដ្ឋានលើ AI ។ នៅពេលចាំបាច់ សូមដោតស្វ័យភាព ហើយអ្នកត្រៀមខ្លួនជាស្រេចដើម្បីរំកិល (រហូតដល់ពេលនោះ ហាក់ដូចជាអ្នកមិនបានបំពានលើការហាមឃាត់)។
  • ផ្សេងទៀត

មានការលំបាកជាច្រើនទៀតដែលបានសម្តែងជាមួយនឹងការព្យាយាមហាមឃាត់ទាំងស្រុងនូវប្រព័ន្ធអាវុធស្វយ័តដ៍សាហាវ។ ខ្ញុំនឹងគ្របដណ្តប់ពួកគេមួយចំនួនទៀត។

បណ្ឌិតខ្លះប្រកែកថាការហាមប្រាមមិនមានប្រយោជន៍ជាពិសេសទេ ហើយផ្ទុយទៅវិញគួរតែមានបទប្បញ្ញត្តិ។ គំនិតនេះគឺថា contraptions ទាំងនេះនឹងត្រូវបានអនុញ្ញាត ប៉ុន្តែត្រូវបានប៉ូលីសយ៉ាងតឹងរ៉ឹង។ ចំនួននៃការប្រើប្រាស់ស្របច្បាប់ត្រូវបានដាក់ចេញ រួមជាមួយនឹងវិធីកំណត់គោលដៅស្របច្បាប់ ប្រភេទនៃសមត្ថភាពស្របច្បាប់ សមាមាត្រស្របច្បាប់ និងផ្សេងៗទៀត។

តាមទស្សនៈរបស់ពួកគេ ការហាមប្រាមដោយត្រង់គឺដូចជាដាក់ក្បាលរបស់អ្នកទៅក្នុងខ្សាច់ ហើយធ្វើពុតថាដំរីនៅក្នុងបន្ទប់នោះមិនមាន។ ការឈ្លោះប្រកែកគ្នានេះ ធ្វើឱ្យមានការបង្ហូរឈាមរបស់អ្នកដែលប្រឆាំងជាមួយនឹងអំណះអំណាងថា ដោយបង្កើតការហាមឃាត់ អ្នកអាចកាត់បន្ថយយ៉ាងខ្លាំងនូវការល្បួងឱ្យបន្តដំណើរការប្រព័ន្ធទាំងនេះ។ ប្រាកដណាស់ អ្នកខ្លះនឹងបង្ហាញការហាមប្រាម ប៉ុន្តែយ៉ាងហោចណាស់សង្ឃឹមថាភាគច្រើននឹងមិនធ្វើទេ។ បន្ទាប់មកអ្នកអាចផ្តោតការយកចិត្តទុកដាក់របស់អ្នកទៅលើអ្នកអួត ហើយមិនចាំបាច់បំបែកការយកចិត្តទុកដាក់របស់អ្នកចំពោះមនុស្សគ្រប់គ្នានោះទេ។

ការជជែកដេញដោលទាំងនេះទៅជុំវិញ។

ក្តីបារម្ភមួយទៀតដែលកត់សម្គាល់នោះគឺថា ទោះបីអំពើល្អគោរពតាមបម្រាមក៏ដោយ ក៏អំពើអាក្រក់នឹងមិនមានដែរ។ នេះធ្វើឱ្យល្អនៅក្នុងឥរិយាបថមិនល្អ។ អាក្រក់នឹងមានប្រព័ន្ធស្វយ័តអាវុធប្រភេទទាំងនេះ ហើយអ្វីដែលល្អនឹងមិនកើតឡើងនោះទេ។ នៅពេលដែលអ្វីៗត្រូវបានលាតត្រដាងថាអាក្រក់មាន នោះវានឹងយឺតពេលសម្រាប់អ្វីដែលល្អអាចចាប់បាន។ សរុបមក ភាពវៃឆ្លាតតែមួយគត់ដែលត្រូវធ្វើគឺ ត្រៀមប្រយុទ្ធជាមួយភ្លើង។

ក៏មានការទាស់ទែងការរារាំងបុរាណផងដែរ។ ប្រសិនបើជម្រើសល្អក្នុងការបង្កើតប្រព័ន្ធស្វយ័តអាវុធ នេះអាចត្រូវបានប្រើដើម្បីទប់ស្កាត់ភាពអាក្រក់ពីការស្វែងរកដើម្បីចូលទៅក្នុងជម្លោះ។ ទាំងអំពើល្អនឹងត្រូវបានបំពាក់អាវុធកាន់តែល្អ ហើយរារាំងអំពើអាក្រក់ ឬអំពើល្អនឹងត្រៀមខ្លួនជាស្រេចនៅពេលដែលអំពើអាក្រក់អាចនឹងបង្ហាញឱ្យឃើញថាពួកគេបានបង្កើតប្រព័ន្ធទាំងនោះដោយអចេតនា។

ការប្រឆាំងទៅនឹងបញ្ជរទាំងនេះគឺថា តាមរយៈការបង្កើតប្រព័ន្ធស្វយ័តដែលមានអាវុធ អ្នកកំពុងប្រកួតប្រជែងអាវុធ។ ភាគីម្ខាងទៀតនឹងស្វែងរកដូចគ្នា។ ទោះបីជាពួកគេមិនអាចបង្កើតប្រព័ន្ធបែបបច្ចេកវិជ្ជាថ្មីបានក៏ដោយ ពេលនេះពួកគេនឹងអាចលួចយកផែនការរបស់ "ល្អ" ត្រលប់មកវិញនូវភាពក្លាហាននៃបច្ចេកវិទ្យាខ្ពស់ ឬធ្វើត្រាប់តាមអ្វីដែលពួកគេហាក់ដូចជាមើលឃើញថាជាការសាកល្បង និងពិត។ វិធីដើម្បីទទួលបានការងារ។

Aha, ការតបតខ្លះ, ទាំងអស់នេះអាចនាំឱ្យមានការថយចុះនៃជម្លោះដោយភាពស្រដៀងគ្នានៃគ្នាទៅវិញទៅមក។ ប្រសិនបើភាគី A ដឹងថាភាគី B មានអាវុធប្រព័ន្ធស្វយ័តដ៍សាហាវទាំងនោះ ហើយភាគី B ដឹងថាភាគី A មានពួកគេ ពួកគេអាចនឹងអង្គុយយ៉ាងតឹងរ៉ឹង ហើយមិនមកវាយ។ នេះ​មាន​ភាព​រំជើបរំជួល​ដាច់​ដោយ​ឡែក​នៃ​ការ​បំផ្លិចបំផ្លាញ​ធានា​ទៅវិញទៅមក (MAD) រំញ័រ។

ហើយដូច្នេះនៅលើ។

AI នៅក្នុងស្វ័យភាព

សូមប្រាកដថាយើងនៅលើទំព័រដូចគ្នាអំពីធម្មជាតិនៃ AI នាពេលបច្ចុប្បន្ននេះ។

មិនមាន AI ណាមួយដែលប្រកបដោយមនោសញ្ចេតនាទេ។ យើងមិនមាននេះទេ។ យើង​មិន​ដឹង​ថា​តើ​ AI ​អាច​នឹង​កើត​ឡើង​ឬ​អត់​នោះ​ទេ។ គ្មាននរណាម្នាក់អាចទស្សន៍ទាយបានច្បាស់ថា តើយើងនឹងសម្រេចបាន AI អារម្មណ៍ ឬថាតើ AI អារម្មណ៍នឹងកើតឡើងដោយអព្ភូតហេតុដោយឯកឯងក្នុងទម្រង់នៃ supernova នៃការយល់ដឹងតាមការគណនា (ជាទូទៅគេហៅថាឯកវចនៈ សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ).

ប្រភេទនៃ AI ដែលខ្ញុំកំពុងផ្តោតលើមាន AI ដែលមិនមានអារម្មណ៍ដែលយើងមានសព្វថ្ងៃនេះ។ ប្រសិនបើយើងចង់ស្មានទុកជាមុន អ្នកផ្ញើ AI ការពិភាក្សានេះអាចទៅក្នុងទិសដៅខុសគ្នាយ៉ាងខ្លាំង។ AI ដែល​មាន​អារម្មណ៍​ថា​នឹង​មាន​គុណភាព​មនុស្ស។ អ្នកនឹងត្រូវពិចារណាថា AI អារម្មណ៍គឺស្មើនឹងការយល់ដឹងរបស់មនុស្ស។ ជាងនេះទៅទៀត ចាប់តាំងពីមានការប៉ាន់ស្មានខ្លះថា យើងប្រហែលជាមាន AI ដ៏វៃឆ្លាតទំនើប ដូច្នេះហើយទើបអាចសន្និដ្ឋានបានថា AI បែបនេះអាចមានភាពវៃឆ្លាតជាងមនុស្សទៅទៀត (សម្រាប់ការរុករករបស់ខ្ញុំនូវ AI ឆ្លាតវៃទំនើបជាលទ្ធភាព សូមមើល ការគ្របដណ្តប់នៅទីនេះ).

ចូរយើងរក្សាអ្វីៗឱ្យកាន់តែជ្រៅនៅលើផែនដី ហើយពិចារណាអំពី AI ដែលមិនងាយយល់នាពេលបច្ចុប្បន្ននេះ។

ត្រូវដឹងថា AI នាពេលបច្ចុប្បន្ននេះ មិនអាច "គិត" តាមរបៀបណាមួយបានដូចការគិតរបស់មនុស្សនោះទេ។ នៅពេលអ្នកប្រាស្រ័យទាក់ទងជាមួយ Alexa ឬ Siri សមត្ថភាពសន្ទនាអាចហាក់ដូចជាស្រដៀងនឹងសមត្ថភាពរបស់មនុស្ស ប៉ុន្តែការពិតគឺថាវាមានលក្ខណៈគណនា និងខ្វះការយល់ដឹងរបស់មនុស្ស។ យុគសម័យចុងក្រោយបង្អស់របស់ AI បានប្រើប្រាស់យ៉ាងទូលំទូលាយនូវ Machine Learning (ML) និង Deep Learning (DL) ដែលមានឥទ្ធិពលលើការផ្គូផ្គងលំនាំគណនា។ នេះបាននាំឱ្យមានប្រព័ន្ធ AI ដែលមានរូបរាងដូចមនុស្ស។ ទន្ទឹមនឹងនេះដែរ សព្វថ្ងៃនេះមិនមាន AI ណាមួយដែលមានលក្ខណៈសមហេតុសមផលទេ ហើយក៏មិនមានការងឿងឆ្ងល់នៃការយល់ដឹងនៃការគិតដ៏រឹងមាំរបស់មនុស្សដែរ។

សូមប្រយ័ត្នចំពោះ AI នាពេលបច្ចុប្បន្ននេះ។

ML/DL គឺជាទម្រង់នៃការផ្គូផ្គងលំនាំគណនា។ វិធីសាស្រ្តធម្មតាគឺអ្នកប្រមូលផ្តុំទិន្នន័យអំពីកិច្ចការធ្វើការសម្រេចចិត្ត។ អ្នកបញ្ចូលទិន្នន័យទៅក្នុងម៉ូដែលកុំព្យូទ័រ ML/DL ។ គំរូទាំងនោះស្វែងរកលំនាំគណិតវិទ្យា។ បន្ទាប់ពីស្វែងរកគំរូបែបនេះ ប្រសិនបើរកឃើញនោះ ប្រព័ន្ធ AI នឹងប្រើលំនាំទាំងនោះនៅពេលជួបទិន្នន័យថ្មី។ នៅពេលបង្ហាញទិន្នន័យថ្មី គំរូដែលផ្អែកលើ "ទិន្នន័យចាស់" ឬទិន្នន័យប្រវត្តិសាស្រ្តត្រូវបានអនុវត្តដើម្បីបង្ហាញការសម្រេចចិត្តបច្ចុប្បន្ន។

ខ្ញុំ​គិត​ថា​អ្នក​អាច​ទាយ​ថា​តើ​នេះ​កំពុង​ទៅ​ណា​។ ប្រសិនបើ​មនុស្ស​ដែល​បាន​បង្កើត​គំរូ​តាម​ការ​សម្រេច​ចិត្ត​បាន​រួម​បញ្ចូល​ការ​លំអៀង​ដែល​មិន​ឆ្អែតឆ្អន់ នោះ​ការ​ខុសឆ្គង​គឺ​ថា​ទិន្នន័យ​បាន​ឆ្លុះ​បញ្ចាំង​ពី​ចំណុច​នេះ​តាម​វិធី​ស្រាលៗ ប៉ុន្តែ​សំខាន់។ ការ​ផ្គូផ្គង​គំរូ​ការ​សិក្សា​តាម​ម៉ាស៊ីន ឬ​ការ​រៀន​ជ្រៅ​នឹង​ព្យាយាម​ធ្វើ​ត្រាប់តាម​ទិន្នន័យ​តាម​គណិតវិទ្យា។ មិន​មាន​ភាព​ដូច​គ្នា​នៃ​សុភវិនិច្ឆ័យ ឬ​ទិដ្ឋភាព​មនោសញ្ចេតនា​ផ្សេង​ទៀត​នៃ​ការ​បង្កើត​គំរូ​ដែល​បង្កើត​ដោយ AI ក្នុង​មួយ។

ជាងនេះទៅទៀត អ្នកអភិវឌ្ឍន៍ AI ប្រហែលជាមិនដឹងពីអ្វីដែលកំពុងកើតឡើងនោះទេ។ គណិតវិទ្យា arcane នៅក្នុង ML/DL អាចធ្វើឱ្យវាពិបាកក្នុងការបំបាត់ភាពលំអៀងដែលលាក់នៅពេលនេះ។ អ្នកនឹងសង្ឃឹមយ៉ាងត្រឹមត្រូវ ហើយរំពឹងថាអ្នកអភិវឌ្ឍន៍ AI នឹងសាកល្បងសម្រាប់ភាពលំអៀងដែលអាចកប់បាន ទោះបីជាវាពិបាកជាងវាក៏ដោយ។ ឱកាសដ៏រឹងមាំមួយមានដែលថា ទោះបីជាមានការធ្វើតេស្តយ៉ាងទូលំទូលាយថានឹងមានភាពលំអៀងនៅតែបង្កប់នៅក្នុងគំរូដែលត្រូវគ្នានឹងគំរូនៃ ML/DL ក៏ដោយ។

អ្នក​អាច​ប្រើ​សុភាសិត​ដ៏​ល្បី​ឬ​មិន​ល្អ​ខ្លះ​នៃ​ការ​ចោល​សំរាម​ក្នុង​ធុង​សំរាម។ រឿងនោះគឺថា នេះគឺស្រដៀងទៅនឹងភាពលំអៀងដែលបញ្ចូលទៅក្នុង insidiously ដូចជាភាពលំអៀងដែលលិចចូលទៅក្នុង AI ។ ក្បួនដោះស្រាយការសម្រេចចិត្ត (ADM) នៃ AI axiomatically ក្លាយជាបន្ទុកដោយភាពមិនស្មើគ្នា។

មិនល្អ។

ជាមួយនឹងផ្ទៃខាងក្រោយមូលដ្ឋានដែលបានបន្ថែមនោះ យើងបង្វែរម្តងទៀតទៅកាន់ប្រព័ន្ធស្វយ័ត និងប្រធានបទនៃការបង្កើតអាវុធ។ យើងបានឃើញពីមុនថា AI ចូលទៅក្នុងធាតុផ្សំនៃប្រព័ន្ធស្វយ័ត ហើយក៏អាចចូលទៅក្នុងធាតុផ្សំនៃអាវុធផងដែរ។ AI នាពេលបច្ចុប្បន្ននេះមិនមានមនោសញ្ចេតនាទេ។ នេះសក្តិសមក្នុងការនិយាយឡើងវិញ ហើយខ្ញុំនឹងគូសបញ្ជាក់ចំណុចនេះសម្រាប់ការយល់ដឹងបន្ថែមលើបញ្ហាទាំងនេះ។

តោះស្វែងយល់ពីសេណារីយ៉ូមួយចំនួន ដើម្បីមើលថាតើនេះជាការពិចារណាយ៉ាងសំខាន់យ៉ាងណា។ បន្តិចទៀតខ្ញុំនឹងប្តូរចេញពីការតំរង់ទិសក្នុងសម័យសង្រ្គាមលើប្រធានបទនេះ ហើយបង្ហាញពីរបៀបដែលវាជ្រៀតចូលសង្គមផ្សេងៗជាច្រើនទៀត។ រក្សាខ្លួនអ្នកតាម។

ប្រព័ន្ធស្វយ័តដែលមានមូលដ្ឋានលើ AI ដូចជាយានជំនិះស្វយ័ត ដែលយើងអាចនិយាយបានថា មិនមានអ្វីពាក់ព័ន្ធជាមួយអាវុធនោះទេ គឺកំពុងដំណើរការពេញមួយកន្លែងធម្មតា។ មនុស្ស​ម្នាក់​មក​ជាមួយ​ដើម្បី​ប្រើប្រាស់​យានជំនិះ​ស្វយ័ត។ បុគ្គល​នោះ​ប្រដាប់​ដោយ​អាវុធ​មុខ ។ សន្មត់សម្រាប់ជាប្រយោជន៍នៃការពិភាក្សានៅក្នុងសេណារីយ៉ូពិសេសនេះថា បុគ្គលនោះមានអ្វីមួយនៅក្នុងចិត្ត។ បុគ្គល​នោះ​ចូល​ទៅ​ក្នុង​យាន​ស្វយ័ត (កាន់​អាវុធ​ដោយ​បិទ​បាំង ឬ​មិន​បិទ​បាំង​ក៏​ដោយ) ។

យានជំនិះស្វយ័តធ្វើដំណើរទៅកាន់គោលដៅណាមួយដែលអ្នកជិះបានស្នើសុំ។ ក្នុងករណីនេះ AI កំពុងរៀបចំកម្មវិធីយ៉ាងសាមញ្ញក្នុងការដឹកអ្នកដំណើរនេះពីទីតាំងយកមួយទៅគោលដៅដែលបានកំណត់ ដូចដែលវាបានធ្វើសម្រាប់ការធ្វើដំណើររាប់សិប ឬរាប់រយដងក្នុងមួយថ្ងៃៗ។

ប្រសិនបើនេះជាអ្នកបើកបរមនុស្ស និងជាយានជំនិះដែលបើកបរដោយមនុស្ស សន្មតថាមានឱកាសខ្លះដែលអ្នកបើកបរមនុស្សនឹងដឹងថាអ្នកដំណើរមានប្រដាប់អាវុធ ហើយហាក់ដូចជាមានចេតនាមិនសមរម្យ។ អ្នកបើកបរមនុស្សអាចបដិសេធមិនបើករថយន្ត។ ឬអ្នកបើកបរមនុស្សអាចបើកឡានទៅប៉ុស្តិ៍ប៉ូលីស។ ឬប្រហែលជាអ្នកបើកបរមនុស្សអាចព្យាយាមបង្ក្រាបអ្នកដំណើរប្រដាប់អាវុធ (ករណីដែលមានរបាយការណ៍) ឬរារាំងអ្នកដំណើរពីការប្រើប្រាស់អាវុធរបស់ពួកគេ។ វាមានភាពស្មុគស្មាញណាស់ ហើយចំនួននៃការប្រែប្រួលអាចមាន។ អ្នក​នឹង​ពិបាក​ក្នុង​ការ​អះអាង​ថា​មាន​ចម្លើយ​ត្រឹម​ត្រូវ​តែ​មួយ​គត់​ក្នុង​ការ​ដោះស្រាយ​បញ្ហា​បែប​នេះ។ គួរឲ្យស្តាយ ស្ថានការណ៍កាន់តែតានតឹង និងគ្រោះថ្នាក់ជាក់ស្តែង។

AI ក្នុងករណីនេះទំនងជាមិនត្រូវបានកម្មវិធីសម្រាប់ប្រភេទនៃលទ្ធភាពទាំងនោះទេ។ សរុបមក អ្នកដំណើរប្រដាប់អាវុធអាចប្រើប្រាស់អាវុធរបស់ពួកគេ ដោយធ្វើដូច្នេះពីក្នុងរថយន្តស្វ័យប្រវត្តិ ក្នុងអំឡុងពេលធ្វើដំណើរ។ ប្រព័ន្ធបើកបរ AI នឹងបន្តធ្វើដំណើរតាម ហើយយានជំនិះស្វ័យប្រវត្តិនឹងបន្តឆ្ពោះទៅរកការកំណត់ដែលបានបញ្ជាក់របស់អ្នកដំណើរ (សន្មត់ថាគោលដៅមិនត្រូវបានគេចាត់ទុកថានៅក្រៅព្រំដែនទេ)។

ប្រព័ន្ធបើកបរ AI សហសម័យភាគច្រើននឹងផ្តោតតែលើការគណនាលើផ្លូវ និងមិនមែនលើការខិតខំប្រឹងប្រែងរបស់អ្នកជិះនោះទេ។

អ្វីៗអាចអាក្រក់ជាងនេះទៅទៀត។

ឧបមាថាមាននរណាម្នាក់ចង់មានគ្រឿងទេសមួយក្រុមដឹកជញ្ជូនទៅកន្លែងដែលយកអាហារបន្ថែមសម្រាប់អ្នកខ្វះខាត។ បុគ្គលនោះស្នើសុំយានជំនិះស្វយ័ត ហើយដាក់ថង់គ្រឿងទេសទៅក្នុងកៅអីខាងក្រោយនៃរថយន្ត។ ពួកគេនឹងមិនទៅជាមួយសម្រាប់ជិះនោះទេ ហើយគ្រាន់តែប្រើប្រាស់យានជំនិះស្វយ័តដើម្បីចែកចាយថង់អាហារសម្រាប់ពួកគេ។

មើលទៅល្អណាស់។

ការស្រមើលស្រមៃថាមនុស្សអាក្រក់ជ្រើសរើសជំនួសវិញដើម្បីដាក់ទម្រង់នៃអាវុធមួយចំនួនទៅក្នុងរថយន្តស្វយ័ត ជាជាងការយល់ឃើញដោយសន្តិវិធីនៃថង់គ្រឿងទេស។ ខ្ញុំគិតថាអ្នកអាចទាយបានថានឹងមានអ្វីកើតឡើង។ នេះ​ជា​កង្វល់​ដែល​ខ្ញុំ​បាន​ដាស់តឿន​ម្តង​ហើយ​ម្តង​ទៀត​នៅ​ក្នុង​ជួរ​ឈរ​របស់​ខ្ញុំ ហើយ​បាន​ព្រមាន​ថា​យើង​ត្រូវ​ដោះស្រាយ​ឆាប់ៗ ជាជាង​ពេល​ក្រោយ។

ការឆ្លើយតបមួយដែលបានផ្ដល់ជូនចំពោះប្រភេទនៃសេណារីយ៉ូទាំងនេះគឺថា ប្រហែលជារថយន្តស្វយ័តទាំងអស់អាចត្រូវបានកម្មវិធីឱ្យប្រើប្រាស់កាមេរ៉ា និងឧបករណ៍ចាប់សញ្ញាផ្សេងទៀតរបស់ពួកគេ ដើម្បីសាកល្បង និងស្វែងរកថាតើអ្នកដំណើរដែលមានសក្តានុពលមានប្រដាប់អាវុធ និងមានបំណងអាក្រក់ឬអត់។ ប្រហែលជា AI នឹងត្រូវបានកម្មវិធីដើម្បីធ្វើរឿងនេះ។ ឬ AI អេឡិចត្រូនិច និងដោយស្ងៀមស្ងាត់ ជូនដំណឹងដល់ប្រតិបត្តិកររបស់មនុស្សពីចម្ងាយ ដែលបន្ទាប់មកនឹងតាមរយៈកាមេរ៉ាមើលឃើញ ហើយពិនិត្យមើល ហើយអាចធ្វើអន្តរកម្មជាមួយអ្នកដំណើរ។ វាគឺជាផ្នែកទាំងអស់នៃពពួកដង្កូវដែលស្មុគ្រស្មាញ និងអាចទាក់ទាញបាន ដូចជាវាបង្កើនបញ្ហាឯកជនភាពខ្លាំង និងបញ្ហាជាច្រើននៃកង្វល់ខាងសីលធម៌ AI ដ៏មានសក្តានុពលផ្សេងទៀត។ សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ.

ជម្រើសស្រដៀងគ្នាមួយទៀតគឺថា AI មានប្រភេទនៃកម្មវិធីសីលធម៌បង្កប់មួយចំនួនដែលព្យាយាមធ្វើឱ្យ AI ធ្វើការវិនិច្ឆ័យប្រកបដោយសីលធម៌ ឬសីលធម៌ដែលជាធម្មតាត្រូវបានបម្រុងទុកសម្រាប់អ្នកធ្វើការសម្រេចចិត្តរបស់មនុស្ស។ ខ្ញុំ​បាន​ពិនិត្យ​មើល​អ្នក​ព្យាករណ៍​ក្រមសីលធម៌​កុំព្យូទ័រ​ដែល​បង្កប់​ដោយ AI ទាំងនេះ​មើល តំណភ្ជាប់នៅទីនេះ និង តំណភ្ជាប់នៅទីនេះ.

ត្រលប់ទៅសេណារីយ៉ូសមរភូមិវិញ ដោយស្រមៃថាប្រព័ន្ធអាវុធស្វយ័តដ៍សាហាវមួយកំពុងជិះពីលើតំបន់ប្រយុទ្ធ។ AI កំពុងដំណើរការប្រព័ន្ធស្វយ័ត។ AI កំពុងប្រតិបត្តិការអាវុធនៅលើយន្តហោះ។ យើងបានគិតមុននេះពីលទ្ធភាពដែល AI អាចនឹងត្រូវបានកម្មវិធីដើម្បីស្កេនរកចលនាដែលហាក់ដូចជាអរិភាព ឬសូចនាករផ្សេងទៀតនៃគោលដៅរបស់មនុស្សដែលត្រូវបានចាត់ទុកថាជាអ្នកប្រយុទ្ធត្រឹមត្រូវ។

តើ AI ដូចគ្នានេះ គួរតែមានធាតុផ្សំតម្រង់ទិសសីលធម៌មួយចំនួន ដែលខិតខំគិតគូរពីអ្វីដែលមនុស្សក្នុងរង្វង់អាចធ្វើ ដោយដើរតួក្នុងន័យជំនួសឱ្យការមានមនុស្សក្នុងរង្វង់?

អ្នក​ខ្លះ​ឆ្លើយ​ថា​បាទ សូម​បន្ត​តាម​នេះ។ អ្នក​ខ្លះ​ភ័យ​រន្ធត់ ហើយ​និយាយ​ថា វា​មិន​អាច​ទៅ​រួច ឬ​បំពាន​លើ​ភាព​បរិសុទ្ធ​នៃ​មនុស្សជាតិ។

ដង្កូវមួយកំប៉ុងទៀត។

សន្និដ្ឋាន

សម្រាប់អ្នកដែលចាប់អារម្មណ៍លើប្រធានបទនេះ មានអ្វីជាច្រើនទៀតដែលត្រូវពិភាក្សា។

ខ្ញុំ​នឹង​ផ្តល់​ឱ្យ​អ្នក​នូវ​រសជាតិ​យ៉ាង​ឆាប់​រហ័ស​នៃ​ការ​រំខាន​មួយ​។

ជា​ធម្មតា​យើង​រំពឹង​ថា​មនុស្ស​នឹង​ត្រូវ​ទទួល​ខុស​ត្រូវ​នៅ​ទី​បំផុត​ចំពោះ​អ្វី​ដែល​កើត​ឡើង​ក្នុង​អំឡុង​ពេល​សង្គ្រាម។ ប្រសិនបើ AI កំពុងគ្រប់គ្រងប្រព័ន្ធអាវុធស្វយ័ត ឬគ្រប់គ្រងប្រព័ន្ធស្វយ័តដែលមានអាវុធ ហើយប្រព័ន្ធនេះធ្វើអ្វីមួយនៅលើសមរភូមិដែលគេជឿថាមិនអាចដឹងបាន តើអ្នកណា ឬត្រូវស្តីបន្ទោសចំពោះរឿងនេះ?

អ្នកអាចប្រកែកថា AI គួរតែទទួលខុសត្រូវ។ ប៉ុន្តែ​ប្រសិន​បើ​ដូច្នេះ តើ​វា​មាន​ន័យ​យ៉ាង​ណា? យើងមិនទាន់ចាត់ទុក AI ថ្ងៃនេះជាតំណាងនៃភាពស្របច្បាប់នៅឡើយ សូមមើលការពន្យល់របស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ. គ្មានការខ្ទាស់កន្ទុយលើសត្វលាក្នុងករណី AI នោះទេ។ ប្រហែល​ជា​ថ្ងៃ​ណាមួយ AI ក្លាយ​ជា​មនុស្ស​យល់​ចិត្ត អ្នក​អាច​ព្យាយាម​ធ្វើ​ដូច្នេះ។ រហូតមកដល់ពេលនោះ នេះគឺជាការឈានទៅដល់បន្តិច (បូកនឹងការពិន័យ ឬផលប៉ះពាល់ប្រភេទណាដែល AI នឹងត្រូវទទួលរង សូមមើលការវិភាគរបស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ និង តំណភ្ជាប់នៅទីនេះ, ឧទាហរណ៍)។

ប្រសិនបើ AI មិនមែនជាជនសង្ស័យដែលមានទំនួលខុសត្រូវទេនោះ យើងអាចនិយាយដោយធម្មជាតិថា អ្វីក៏ដោយដែលមនុស្ស ឬមនុស្សបានបង្កើត AI គួរតែទទួលខុសត្រូវ។ តើ​អ្នក​អាច​ធ្វើ​បែប​នេះ​បាន​ទេ ប្រសិន​បើ AI គ្រាន់​តែ​ដំណើរ​ការ​ប្រព័ន្ធ​ស្វយ័ត ហើយ​មនុស្ស​មួយ​ចំនួន​បាន​មក​ជាមួយ​នឹង​វា​ជាមួយ​នឹង​អាវុធ? តើអ្នកដើរតាមអ្នកអភិវឌ្ឍន៍ AI ទេ? ឬអ្នកដែលដាក់ពង្រាយ AI? ឬគ្រាន់តែជាតួសម្តែងអាវុធ?

ខ្ញុំជឿថាអ្នកទទួលបានគំនិតដែលថាខ្ញុំគ្រាន់តែប៉ះចុងនៃផ្ទាំងទឹកកកនៅក្នុងការពិភាក្សាដ៏រីករាយរបស់ខ្ញុំ។

សម្រាប់ពេលនេះ ចូរយើងបន្តបញ្ចប់សុន្ទរកថានេះ។ អ្នក​ប្រហែល​ជា​ចាំ​ថា John Lyly នៅ​ក្នុង Euphues: កាយវិភាគសាស្ត្ររបស់ Wit នៅឆ្នាំ 1578 បានសរសេរថា ទាំងអស់គឺយុត្តិធម៌នៅក្នុងស្នេហា និងសង្រ្គាម។

តើ​គាត់​នឹង​គិត​ដល់​ការ​កើត​ឡើង​នៃ​ប្រព័ន្ធ​សព្វាវុធ​ស្វយ័ត និង​ការ​កើត​ឡើង​ដូច​គ្នា​នៃ​ប្រព័ន្ធ​ស្វយ័ត​ដែល​មាន​អាវុធ​ដែរ​ឬ​ទេ?

យើងប្រាកដជាត្រូវដាក់ចំណុចនេះនៅលើគំនិតរបស់យើងភ្លាមៗ។

ប្រភព៖ https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- weapons-systems-and-the-exploitation-of-ai-driven-autonomous-systems-that-are-devilishly-weaponized/