ក្រមសីលធម៌ AI កំពុងពិចារណាលើគុណសម្បត្តិនៃមូលនិធិដង្វាយធួនស្របច្បាប់ ដើម្បីធានាឱ្យមានគណនេយ្យភាពចំពោះ AI ធ្វើសកម្មភាពមិនល្អ

បន្ទោសអ្នកណា?

នោះអាចហាក់ដូចជាសំណួរត្រង់មួយ ទោះបីជាក្នុងករណីកំប្លែងដ៏ល្បីមួយដោយក្រុមរឿងព្រេងនិទានរបស់ Abbott និង Costello អំពីក្រុមកីឡាបេស្បលក៏ដោយ "អ្នកណា" អាចមានការភាន់ច្រលំ។ អ្នកប្រហែលជាស្គាល់ច្បាស់ជាមួយ អ្នកណាមុនគេ ទម្លាប់​កំប្លែង​ដែល​ពួក​គេ​បាន​បង្កើត​ជា​រឿង​ដែល​អាច​ទ្រាំទ្រ​បាន​គ្រប់​ពេល​វេលា (ការ​ជូន​ដំណឹង​អំពី​អ្នក​ដែល​មិន​ទាន់​បាន​ឮ)។

Abbott ប្រាប់ Costello ថា តើអ្នកណានៅលើទីមួយ អ្វីនៅលើទីពីរ ហើយខ្ញុំមិនដឹងគឺស្ថិតនៅលើទីបី។ ល្បិច​ដ៏​ឆ្លាត​វៃ​នោះ​គឺ​អ្នក​មូលដ្ឋាន​ទី​១​ឈ្មោះ​នរណា បន្ទប់​ក្រោមដី​ទី​២​ដាក់​ឈ្មោះ​អ្វី ហើយ​អ្នក​ទី​៣​ដាក់​ឈ្មោះ​ខ្ញុំ​មិន​ដឹង ។ ជាការពិតណាស់ ឃ្លាទាំងនោះក៏មានអត្ថន័យធម្មតារបស់ពួកគេផងដែរ ដូច្នេះហើយការព្យាយាមបកស្រាយនូវអ្វីដែល Abbott កំពុងនិយាយអាចជាការយល់ច្រឡំទាំងស្រុង។ ពិតហើយ Costello សួរសំណួរដែលមើលទៅហាក់ដូចជាគ្មានកំហុសថាអ្នកណាជាអ្នកមុនគេ ដែលចម្លើយគឺបញ្ជាក់យ៉ាងម៉ឺងម៉ាត់ថាបាទ។ ប៉ុន្តែនេះមិនសមហេតុផលសម្រាប់ Costello ចាប់តាំងពីគាត់ត្រូវបានគេរំពឹងថានឹងមានឈ្មោះមួយហើយជំនួសមកវិញនូវចម្លើយដែលគួរឱ្យឆ្ងល់ថាបាទ / ចាស។

ការផ្លាស់ប្តូរឧបករណ៍ នៅពេលដែលវាមកដល់ការមកដល់នៃ Artificial Intelligence (AI) ដែលជាសំណួរដ៏ស្មុគស្មាញបំផុតមួយដែលបន្តសួរថា តើអ្នកណា ឬប្រហែលជាអ្វីដែលនឹងត្រូវទទួលខុសត្រូវនៅពេលដែល AI វង្វេង។

ខ្ញុំបានពិភាក្សាពីមុនអំពីការទទួលខុសត្រូវព្រហ្មទណ្ឌចំពោះពេលដែល AI ដឹកនាំ ឬធ្វើសកម្មភាពព្រហ្មទណ្ឌ សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ. វាក៏មានបញ្ហានៃការទទួលខុសត្រូវរដ្ឋប្បវេណីផងដែរ ដូចជាអ្នកណា ឬអ្វីដែលអ្នកអាចប្តឹងនៅពេលដែល AI បានធ្វើឱ្យអ្នកខុស ដែលជាប្រធានបទដែលខ្ញុំនឹងពិភាក្សានៅទីនេះ។ ទាំងអស់នេះមានការពិចារណាលើក្រមសីលធម៌ AI យ៉ាងសំខាន់។ សម្រាប់ការគ្របដណ្តប់ដែលកំពុងបន្ត និងទូលំទូលាយនៃ AI Ethics និង Ethical AI សូមមើល តំណភ្ជាប់នៅទីនេះ និង តំណភ្ជាប់នៅទីនេះ, គ្រាន់តែឈ្មោះមួយចំនួន។

សិក្ខាបទនៃក្រមសីលធម៌ AI ធ្វើឱ្យយើងមានការប្រុងប្រយ័ត្ន។ ពេលខ្លះអ្នកបច្ចេកវិទ្យា AI អាចក្លាយជាមនុស្សដែលរវល់ជាមួយបច្ចេកវិទ្យា ជាពិសេសការបង្កើនប្រសិទ្ធភាពនៃបច្ចេកវិទ្យាខ្ពស់។ ពួកគេមិនចាំបាច់ពិចារណាពីផលប៉ះពាល់សង្គមធំជាងនេះទេ។ ការមានផ្នត់គំនិត AI Ethics និងការធ្វើដូច្នេះរួមបញ្ចូលជាមួយការអភិវឌ្ឍន៍ និងការអនុវត្ត AI គឺមានសារៈសំខាន់សម្រាប់ផលិត AI ដែលសមស្រប រួមទាំង (ប្រហែលជាគួរឱ្យភ្ញាក់ផ្អើល ឬហួសចិត្ត) ការវាយតម្លៃអំពីរបៀបដែល AI Ethics ត្រូវបានក្រុមហ៊ុនទទួលយកដោយក្រុមហ៊ុន។

ក្រៅពីការប្រើប្រាស់ច្បាប់សីលធម៌ AI ជាទូទៅ មានសំណួរដែលត្រូវគ្នាថាតើយើងគួរតែមានច្បាប់ដើម្បីគ្រប់គ្រងការប្រើប្រាស់ផ្សេងៗនៃ AI ដែរឬទេ។ ច្បាប់ថ្មីកំពុងត្រូវបានដាក់ពង្រាយនៅកម្រិតសហព័ន្ធ រដ្ឋ និងមូលដ្ឋាន ដែលទាក់ទងនឹងជួរ និងលក្ខណៈនៃរបៀបដែល AI គួរតែត្រូវបានបង្កើត។ ការ​ខិតខំ​ធ្វើ​សេចក្តី​ព្រាង និង​អនុម័ត​ច្បាប់​បែប​នេះ​ជា​បណ្តើរៗ។ ក្រមសីលធម៌ AI ដើរតួជាគម្លាតដែលត្រូវបានពិចារណា យ៉ាងហោចណាស់ ហើយស្ទើរតែនឹងប្រាកដក្នុងកម្រិតខ្លះត្រូវបានដាក់បញ្ចូលទៅក្នុងច្បាប់ថ្មីទាំងនោះ។

ត្រូវ​ដឹង​ថា​មាន​អ្នក​ខ្លះ​ប្រកែក​យ៉ាង​ម៉ឺងម៉ាត់​ថា​យើង​មិន​ត្រូវ​ការ​ច្បាប់​ថ្មី​ដែល​គ្រប​ដណ្ដប់​លើ AI ហើយ​ថា​ច្បាប់​ដែល​មាន​ស្រាប់​របស់​យើង​គឺ​គ្រប់គ្រាន់​ហើយ។ តាមពិតទៅ ពួកគេបានព្រមានថា ប្រសិនបើយើងអនុវត្តច្បាប់ AI មួយចំនួននេះ យើងនឹងសម្លាប់សត្វពពែមាស ដោយកាត់បន្ថយភាពជឿនលឿននៃ AI ដែលផ្តល់អត្ថប្រយោជន៍យ៉ាងច្រើនដល់សង្គម។

ការជជែកវែកញែកដ៏ក្តៅគគុកដែលកើតឡើងគឺថាតើច្បាប់ដែលមានស្រាប់អាចដោះស្រាយបានគ្រប់គ្រាន់នូវការលេចឡើងនៃប្រព័ន្ធ AI នៅទូទាំងសង្គម។ ទំនួលខុសត្រូវផ្លូវច្បាប់ជាធម្មតាតម្រូវឱ្យអ្នកអាចដាក់កន្ទុយលើសត្វលាថាតើអ្នកណាជាអ្នកទទួលខុសត្រូវចំពោះទង្វើបង្កគ្រោះថ្នាក់។ ក្នុងករណី AI ប្រហែលជាមានផ្លូវមិនច្បាស់លាស់ដែលភ្ជាប់បុគ្គល ឬមនុស្សជាក់លាក់ទៅនឹង AI ដែលធ្វើសកម្មភាពបង្ករបួសស្នាមខ្លះ។ AI អាច​នឹង​មិន​អាច​តាមដាន​បាន​ច្រើន​ចំពោះ​ប្រភព ឬ​អ្នក​បង្កើត​ដែល​បង្កើត​ AI ។

ការពិចារណាមួយទៀតគឺថា បើទោះបីជាឫសគល់នៃ AI អាចត្រូវបានតាមដានទៅកាន់នរណាម្នាក់ក៏ដោយ សំណួរគឺថាតើបុគ្គលនោះ ឬមនុស្សប្រហែលជាមិនអាចគិតទុកជាមុនអំពីលទ្ធផលអវិជ្ជមានដែល AI ផលិតនៅទីបំផុតនោះទេ។ ចំណុចសំខាន់នៃលទ្ធភាពអាចដឹងជាមុន គឺជាកត្តាដែលគួរអោយកត់សំគាល់ជាទម្លាប់ក្នុងការវាយតម្លៃការទទួលខុសត្រូវផ្លូវច្បាប់។

អ្នកប្រហែលជាត្រូវបានល្បួងឱ្យគិតថា អ្នកអាចធ្វើតាម AI ដោយខ្លួនឯង ហើយដាក់ឈ្មោះ AI ថាជាភាគីស្របច្បាប់ដែលទទួលខុសត្រូវ ឬទទួលខុសត្រូវចំពោះការខូចខាតណាមួយដែលត្រូវបានចោទប្រកាន់។ ជាទូទៅ ទិដ្ឋភាពផ្លូវច្បាប់ទូទៅគឺថា AI មិនទាន់ឈានដល់កម្រិតនៃភាពជាបុគ្គលស្របច្បាប់នៅឡើយ។ ដូច្នេះហើយ អ្នកនឹងមិនអាចនិយាយយ៉ាងតឹងរ៉ឹងដើម្បីស្វែងរក AI ដើម្បីបង់ថ្លៃនោះទេ ហើយនឹងត្រូវស្វែងរកមនុស្សដែលកំពុងធ្វើការនៅខាងក្រោយឆាកដូចដែលវាគឺ (សម្រាប់ការវិភាគរបស់ខ្ញុំអំពីភាពស្របច្បាប់សម្រាប់ AI សូមមើល តំណភ្ជាប់នៅទីនេះ).

ទៅក្នុងសកម្មភាពផ្លូវច្បាប់ដ៏មានសក្តានុពលទាំងអស់នេះ ជំហានគំនិតមួយដែលកំពុងត្រូវបានអណ្តែតជាមធ្យោបាយដោះស្រាយដែលអាចធ្វើទៅបាន ទាំងនៅលើមូលដ្ឋានរយៈពេលខ្លី ឬប្រហែលជានៅលើរយៈពេលវែង។ គំនិតនេះគឺថា ប្រហែលជាមូលនិធិសំណងពិសេសមួយគួរតែត្រូវបានបង្កើតឡើងដើម្បីផ្តល់ជំនួយផ្នែកហិរញ្ញវត្ថុសម្រាប់អ្នកដែលត្រូវបានបំផ្លាញដោយ AI ។ បើមិនដូច្នេះទេ អ្នកមិនអាចយក AI មកផ្តល់សំណងដល់អ្នកបានទេ ហើយអ្នកមិនអាចទម្លាក់កំហុសលើមនុស្សដែលគួរទទួលខុសត្រូវ នោះជម្រើសដ៏ល្អបំផុតបន្ទាប់អាចជាការចូលទៅក្នុងមូលនិធិសំណងដែលមានគោលបំណងជួយអ្នកដែលរងគ្រោះថ្នាក់ដោយ AI ។

មូលនិធិបែបនេះនឹងស្រដៀងទៅនឹងទម្រង់នៃការធានារ៉ាប់រងប្រភេទមួយ ដូចដែលមានចែងនៅក្នុងឯកសារស្រាវជ្រាវដែលជំរុញឱ្យមានការគិតមួយថា “នេះនឹងក្លាយជាយន្តការធានារ៉ាប់រងប្រឆាំងនឹងភាពមិនប្រាកដប្រជា៖ ក្របខ័ណ្ឌច្បាស់លាស់ និងតម្លាភាពសម្រាប់សំណងឆាប់រហ័ស ក្នុងករណីដែលបណ្តឹងទទួលខុសត្រូវមាន ភាពមិនប្រាកដប្រជា ឬគ្មានការរំពឹងទុកនៃភាពជោគជ័យ ដោយសារធម្មជាតិដែលមិនអាចទាយទុកជាមុនបាននៃអាកប្បកិរិយាដែលខូចខាត ការខូចខាត (ប្រភេទនៃ) ខ្លួនវាផ្ទាល់ ឬការចំណាយលើសលប់ និង/ឬភាពស្មុគស្មាញនៃនីតិវិធី” (អត្ថបទដោយ Olivia Erdelyi និង Gabor Erdelyi, "The AI ​​Liability Puzzle Puzzle និងការងារជុំវិញមូលនិធិ”, ទិនានុប្បវត្តិនៃការស្រាវជ្រាវបញ្ញាសិប្បនិម្មិត, 2021) ។

មូលនិធិសំណងនឹងជាផ្នែកមួយនៃគ្រោងការណ៍ធានា AI (AIGS) ដ៏ទូលំទូលាយ ហើយត្រូវបានអមដោយការផ្លាស់ប្តូរការប៉ះពន្លឺមួយចំនួនចំពោះច្បាប់ដែលមានស្រាប់អំពីការទទួលខុសត្រូវផ្នែកច្បាប់។ ការប៉ះស្រាលនឹងអាចសន្មត់ថាងាយស្រួលជាងក្នុងការអនុម័ត និងមិនតម្រូវឱ្យមានប្រភេទនៃភាពលំបាកខាងផ្លូវច្បាប់ និងសង្គម ប្រសិនបើការផ្លាស់ប្តូរបាតុកម្មជាបន្តបន្ទាប់ត្រូវបានធ្វើឡើងចំពោះរបបច្បាប់ដែលមានស្រាប់។ យោងទៅតាមអ្នកស្រាវជ្រាវ៖ "នេះឆ្លុះបញ្ចាំងពីជំនឿរបស់យើងដែលថា ទោះបីជាមានការអំពាវនាវនៃដំណោះស្រាយរហ័សបែបនេះក៏ដោយ - ក៏ដោយ។ មិនបានកែប្រែ ការអនុវត្តច្បាប់ទំនួលខុសត្រូវដែលមានស្រាប់ចំពោះ AI ឬ ក ជំរុញដោយការការពារនិយម ការទាមទារឱ្យទទួលខុសត្រូវយ៉ាងតឹងរឹង ក្នុងគោលបំណងបង្កើតទំនួលខុសត្រូវក្នុងការចំណាយណាមួយ មិនមែនជាចម្លើយត្រឹមត្រូវសម្រាប់ហេតុផលបីយ៉ាង៖ ទីមួយ ការមិនអើពើថាច្បាប់ទាំងនោះត្រូវបានកែសម្រួលទៅតាមកាលៈទេសៈផ្សេងៗគ្នា ហើយដូច្នេះអាចមិនសមរម្យសម្រាប់ AI ទេ ពួកវាផ្ទុយនឹងគោលបំណងដែលមានតុល្យភាពល្អនៃ ប្រព័ន្ធទទួលខុសត្រូវផ្លូវច្បាប់។ ទីពីរ ពួកគេរារាំងការច្នៃប្រឌិត AI ដោយប្រកាន់យកវិធីសាស្រ្តដាក់ទណ្ឌកម្មដែលមិនសមរម្យ។ ទីបី ការប្រើប្រាស់ទំនួលខុសត្រូវដ៏តឹងរឹងហួសហេតុគ្រាន់តែជៀសផុតពីការមើលឃើញទុកជាមុន និងបញ្ហាកំហុសក្នុងលក្ខណៈមិនស៊ីសង្វាក់គ្នាជាជាងការដោះស្រាយពួកគេ” (ដូចក្នុងក្រដាសដែលបានលើកឡើងខាងលើ)។

អំណះអំណាងក្នុងការពេញចិត្តនៃមូលនិធិសំណង AI រួមមាន:

  • កាត់បន្ថយតម្រូវការសម្រាប់ការសាកល្បងផ្លូវច្បាប់ដ៏យូរ និងថ្លៃដើម ដើម្បីទប់ទល់នឹងគ្រោះថ្នាក់ដែលបណ្តាលមកពី AI
  • ធានាដល់មនុស្សថាពួកគេអាចប្រើប្រាស់ AI និងទទួលបានសំណងប្រសិនបើមានគ្រោះថ្នាក់
  • លើកកម្ពស់ការច្នៃប្រឌិត AI ដោយកាត់បន្ថយភាពមិនច្បាស់លាស់ផ្នែកច្បាប់ដែលប្រឈមមុខនឹងអ្នកច្នៃប្រឌិត AI
  • អាច​ត្រូវ​បាន​ដាក់​ឱ្យ​ប្រើ​ប្រាស់​លឿន​ជាង​ការ​ធ្វើ​ការ​ផ្លាស់​ប្តូរ​យ៉ាង​ធំ​ចំពោះ​ច្បាប់​ដែល​មាន​ស្រាប់
  • ផ្ដល់ជូននូវមធ្យោបាយដោះស្រាយច្បាស់លាស់ដែលអាចទុកចិត្តបាន និងអាចរកបានយ៉ាងងាយស្រួល
  • ផ្សេងទៀត

ទន្ទឹមនឹងនេះ អ្នកដែលប្រឆាំងនឹងវិធីសាស្រ្តនៃមូលនិធិសំណង AI និយាយថា៖

  • សូមឱ្យអ្នកបង្កើត AI ហួសហេតុពេក ហើយអនុញ្ញាតឱ្យពួកគេកាត់បន្ថយការទទួលខុសត្រូវ
  • នឹងជំរុញអ្នកបង្កើត AI ឱ្យបង្កើត AI ដែលខ្វះសុវត្ថិភាព និងការគ្រប់គ្រងត្រឹមត្រូវ។
  • អាចជំរុញមនុស្សឱ្យមានការក្លែងបន្លំការអះអាងពីការខូចខាត AI ដូច្នេះពួកគេអាចចូលទៅក្នុងមូលនិធិ
  • ភាគីម្ខាង និងធ្វើឱ្យខូចដល់តម្រូវការពិត ក្នុងការកែប្រែច្បាប់របស់យើង ដើម្បីគ្រប់គ្រង AI ឱ្យបានគ្រប់គ្រាន់
  • អាច​ក្លាយ​ជា​សុបិន្ត​អាក្រក់​របស់​ការិយាធិបតេយ្យ​ដែល​រអាក់រអួល និង​ប្រើប្រាស់​ថវិកា​ខុស
  • ផ្សេងទៀត

ដូច​ជា​អាច​ជា​ភស្តុ​តាង មាន​ទាំង​អ្នក​គាំទ្រ និង​អ្នក​ប្រឆាំង​នៃ​គំនិត​ចម្រូងចម្រាស​ទាំង​ស្រុង។

អ្នក​នឹង​ពិបាក​ក្នុង​ការ​បដិសេធ​ដោយ​សង្ខេប​អំពី​មូលនិធិ​សំណង AI ជា​វិធីសាស្ត្រ​ដ៏​មាន​សក្តានុពល​ចំពោះ​ការ​កើន​ឡើង​នៃ​ការ​ព្រួយ​បារម្ភ​អំពី AI ដែល​បណ្តាល​ឲ្យ​មាន​គ្រោះថ្នាក់។ ដំណោះ​ស្រាយ​ដែល​បាន​ស្នើ​ឡើង​ក៏​មិន​មែន​ជា​ការ​ទះ​កំផ្លៀង​ដែរ។

ទស្សនៈមួយគឺថាអ្នកបង្កើត AI នឹងត្រូវការបញ្ចូលប្រាក់ទៅក្នុងមូលនិធិដែលជាផ្នែកមួយនៃកិច្ចខិតខំប្រឹងប្រែងរបស់ពួកគេនៅពេលបង្កើត និងផ្សព្វផ្សាយ AI ។ នេះអាចត្រូវបានបកស្រាយថាជាប្រភេទថ្លៃសេវា ឬពន្ធដែលពួកគេតម្រូវឱ្យទទួលជាផ្នែកមួយនៃការអាចបញ្ចេញ AI របស់ពួកគេទៅកាន់ពិភពលោក។ ប៉ុន្តែតើការចំណាយបន្ថែមនេះ អាចរារាំងកិច្ចខិតខំប្រឹងប្រែងដោយអ្នកចាប់ផ្តើមអាជីវកម្មដែលកំពុងព្យាយាមជំរុញព្រំដែននៃ AI នាពេលបច្ចុប្បន្ននេះទេ? ហើយតើការអនុវត្តនៃការធ្វើឱ្យប្រាកដថាអ្នកផលិត AI បង់ថ្លៃ ឬពន្ធនឹងត្រូវដោះស្រាយដោយរបៀបណា?

សំណួរ​មួយ​ចំនួន​បាន​កើត​ឡើង ហើយ​នឹង​ត្រូវ​ដោះ​ស្រាយ​ចេញ៖

  • តើ​ប្រទេស​ណា​ខ្លះ​ដែល​មូលនិធិ​សំណង AI អាច​ធ្វើ​បាន​ល្អ​បំផុត?
  • តើទម្រង់ជាសកលនៃមូលនិធិសំណង AI ដែលទាក់ទងគ្នាអាចត្រូវបានបង្កើតឡើងដែរឬទេ?
  • តើអ្វីជាយន្តការលម្អិត និងអាចដំណើរការបានដែលទាក់ទងនឹងមូលនិធិបែបនេះ?
  • តើមូលនិធិសំណង AI ត្រូវបានផ្តល់មូលនិធិដោយរបៀបណា (សាធារណៈ ឯកជន សប្បុរសធម៌)?
  • តើ​នេះ​ជា​មូលដ្ឋាន​ធានា​រ៉ាប់រង​គ្មាន​កំហុស ឬ​នឹង​មាន​វិធីសាស្ត្រ​ផ្សេង​ទៀត​ត្រូវ​បាន​គេ​ចាត់​ទុក​ដែរ​ឬ​ទេ?

អាណាចក្រ​មួយ​ដែល​មាន​គំនិត​ផ្តល់​ប្រាក់​សំណង​ AI ​រួច​ហើយ​មាន​ប្រព័ន្ធ​ស្វយ័ត​ដូច​ជា​រថយន្ត​ស្វយ័ត​ និង​រថយន្ត​ដែល​បើក​បរ​ដោយ​ខ្លួន​ឯង។ សម្រាប់ការគ្របដណ្តប់របស់ខ្ញុំអំពីរថយន្តបើកបរដោយខ្លួនឯង និងប្រព័ន្ធស្វ័យប្រវត្តិ AI សូមមើល តំណភ្ជាប់នៅទីនេះ.

នេះជារូបភាពបង្ហាញពីរបៀបដែលវាអាចដំណើរការសម្រាប់រថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI ។

ឧបមា​ថា​រថយន្ត​ដែល​បើក​បរ​ដោយ​ខ្លួន​ឯង​បាន​បុក​អ្នក​ជិះ​កង់។ អ្នក​ជិះ​កង់​រង​គ្រោះ​។ អ្នក​ជិះ​កង់​អាច​នឹង​ស្វែងរក​ការ​ដោះស្រាយ​តាម​ផ្លូវ​ច្បាប់​ដោយ​ការ​តាម​រក​ក្រុមហ៊ុន​ផលិត​រថយន្ត​ស្វយ័ត។ ឬពួកគេអាចនឹងផ្តោតលើក្រុមហ៊ុនបច្ចេកវិទ្យាបើកបរដោយខ្លួនឯងដែលបង្កើតប្រព័ន្ធបើកបរ AI ។ ប្រសិនបើរថយន្តបើកបរដោយខ្លួនឯងកំពុងដំណើរការជាកងនាវា មធ្យោបាយផ្លូវច្បាប់មួយទៀតគឺត្រូវស្វែងរកប្រតិបត្តិករកងនាវា។ ការព្យាយាមប្តឹង AI មិនមែនជាជម្រើសនៅដំណាក់កាលនេះទេ ដោយសារភាពស្របច្បាប់របស់ AI មិនទាន់ត្រូវបានបង្កើតឡើងនៅឡើយ។

ជាជាងចាត់វិធានការផ្លូវច្បាប់ប្រឆាំងនឹងភាគីណាមួយនោះ ការទាមទារមួយទៀតគឺការដាក់ពាក្យស្នើសុំ ឬទាមទារទៅមូលនិធិសំណង AI ដែលសមស្រប។ មូលនិធិនឹងមានដំណើរការផ្លូវការដែលពាក់ព័ន្ធនឹងការពិនិត្យឡើងវិញលើការទាមទារ ហើយបន្ទាប់មកកំណត់ថាតើការបង់ប្រាក់សំណងណាមួយអាចត្រូវបានផ្តល់ជូនអ្នកទាមទារ។ វាអាចមានដំណើរការបណ្តឹងឧទ្ធរណ៍ដែលជួយអ្នកទាមទារដែលជឿថាពួកគេត្រូវបានបដិសេធដោយមិនត្រឹមត្រូវដោយមូលនិធិ ឬផ្តល់សំណងមិនគ្រប់គ្រាន់ដោយមូលនិធិ។

តាមទ្រឹស្តី មូលនិធិសំណង AI នឹងក្លាយជាផ្លូវលឿនជាងមុនឆ្ពោះទៅរកការទទួលបានសំណងសម្រាប់ការខូចខាតដែលបានធ្វើ។ អ្នក​អាច​ស្រមៃ​មើល​ថា​តើ​បណ្ដឹង​អាច​នឹង​លំបាក​ប៉ុណ្ណា ដែល​ក្រុមហ៊ុន​ដែល​ត្រូវ​បាន​ប្ដឹង​អាច​នឹង​ព្យាយាម​ទាញ​យក​ករណី​នេះ​ចេញ។

ទោះបីជាមេធាវីអាចសង្កត់ធ្ងន់ថាមូលនិធិសំណង AI អាចអនុញ្ញាតឱ្យភាគីផ្សេងទៀតដូចជាអ្នកបង្កើត AI ហាក់ដូចជាជៀសវាងការពិន័យយ៉ាងច្បាស់លាស់ចំពោះការដោះលែងរថយន្តបើកបរដោយខ្លួនឯងនៅលើផ្លូវសាធារណៈដែលបណ្តាលឱ្យអ្នកជិះកង់ធ្វើកូដកម្ម។ តើ​ក្រុមហ៊ុន​ទាំង​នោះ​អាច​រើស​យក​អ្វី​ផ្សេង​ទៀត​ដើម្បី​«​មិន​ខ្វល់​»​ធ្វើ? បើគ្មានការមើលឃើញច្បាស់នៃដាវច្បាប់ដែលព្យួរលើក្បាលរបស់ពួកគេទេ យើងអាចឃើញខ្លួនយើងជារៀងរាល់ថ្ងៃប្រឈមមុខនឹង AI ដែលសំបូរទៅដោយសមត្ថភាពគ្រោះថ្នាក់។

ជុំវិញការជជែកវែកញែកទៅ។

សន្និដ្ឋាន

AI Ethics រំលឹកយើងថា យើងគួរតែគិតគូរអំពីគុណធម៌ និងផ្លូវច្បាប់របស់ AI ជានិច្ច។ នៅក្នុងករណីនៃមូលនិធិសំណង AI នេះ គំនិតដែលបានស្នើឡើងនៃមូលនិធិដែលស្រដៀងនឹងការធានារ៉ាប់រងសម្រាប់ការទូទាត់សំណងដែលបង្កគ្រោះថ្នាក់ដោយ AI ហាក់ដូចជាទាក់ទាញ។ មូលនិធិហាក់បីដូចជាកំពុងរង់ចាំនៅទីនោះ ត្រៀមខ្លួនរួចជាស្រេចក្នុងការទាញយក និងផ្តល់សំណងឆាប់បំផុត។

ការដោះដូរថាតើវាអាចបើកទ្វារទឹកជំនន់ឆ្ពោះទៅរកការបង្កើត AI ដែលមានការគ្រប់គ្រងសុវត្ថិភាពតិចជាងមុន គឺជារឿងដ៏គួរឱ្យភ័យខ្លាច និងជាកង្វល់ពិតប្រាកដផងដែរ។ យើង​ប្រហែល​ជា​មិន​ត្រូវ​ការ​បន្ថែម​ឥន្ធនៈ​ទៅ​ក្នុង​ភ្លើង​ដែល​ប្រហែល​ជា​កំពុង​ដំណើរការ​ហើយ​នោះ​ទេ។

តើយើងអាចនៅតែរក្សាអ្នកបង្កើត AI ដើម្បីរៀបចំ Ethical AI សមស្រប និងក្នុងពេលដំណាលគ្នាបង្កើតមូលនិធិសំណង AI ទាំងនេះបានទេ?

អ្នកខ្លះនឹងនិយាយថា បាទ យើងអាចធ្វើបាន។ តាមរយៈការច្រានចោលច្បាប់ដែលមានស្រាប់ ដើម្បីតម្រឹមជាមួយមូលនិធិសំណង AI អ្នកដែលរងគ្រោះថ្នាក់ដោយ AI អាចមានលទ្ធភាពមានផ្លូវពីរដើម្បីស្វែងរកសំណងសមរម្យរបស់ពួកគេ។

តើអ្នកណាមុនគេ?

មែនហើយ នោះគឺជាអ្នកដែល (ដូចនៅក្នុងពួកយើងទាំងអស់គ្នា) នៅក្នុងការជូនដំណឹងដំបូងថា យើងគួរតែពិចារណាលើការប្រើប្រាស់សក្តានុពលនៃមូលនិធិសំណង AI និងការកែប្រែច្បាប់ដែលមានស្រាប់ ទោះបីជាគ្រាន់តែស្រាលក៏ដោយ ដោយផ្តល់នូវមធ្យោបាយដើម្បីដោះស្រាយជាមួយនឹងការវាយលុកនៃ AI ល្អ និង AI អាក្រក់។

មិនមានការភាន់ច្រលំអំពីការពិចារណាដ៏សំខាន់នោះទេ។

ប្រភព៖ https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- គណនេយ្យភាព/