បន្ទោសអ្នកណា?
នោះអាចហាក់ដូចជាសំណួរត្រង់មួយ ទោះបីជាក្នុងករណីកំប្លែងដ៏ល្បីមួយដោយក្រុមរឿងព្រេងនិទានរបស់ Abbott និង Costello អំពីក្រុមកីឡាបេស្បលក៏ដោយ "អ្នកណា" អាចមានការភាន់ច្រលំ។ អ្នកប្រហែលជាស្គាល់ច្បាស់ជាមួយ អ្នកណាមុនគេ ទម្លាប់កំប្លែងដែលពួកគេបានបង្កើតជារឿងដែលអាចទ្រាំទ្របានគ្រប់ពេលវេលា (ការជូនដំណឹងអំពីអ្នកដែលមិនទាន់បានឮ)។
Abbott ប្រាប់ Costello ថា តើអ្នកណានៅលើទីមួយ អ្វីនៅលើទីពីរ ហើយខ្ញុំមិនដឹងគឺស្ថិតនៅលើទីបី។ ល្បិចដ៏ឆ្លាតវៃនោះគឺអ្នកមូលដ្ឋានទី១ឈ្មោះនរណា បន្ទប់ក្រោមដីទី២ដាក់ឈ្មោះអ្វី ហើយអ្នកទី៣ដាក់ឈ្មោះខ្ញុំមិនដឹង ។ ជាការពិតណាស់ ឃ្លាទាំងនោះក៏មានអត្ថន័យធម្មតារបស់ពួកគេផងដែរ ដូច្នេះហើយការព្យាយាមបកស្រាយនូវអ្វីដែល Abbott កំពុងនិយាយអាចជាការយល់ច្រឡំទាំងស្រុង។ ពិតហើយ Costello សួរសំណួរដែលមើលទៅហាក់ដូចជាគ្មានកំហុសថាអ្នកណាជាអ្នកមុនគេ ដែលចម្លើយគឺបញ្ជាក់យ៉ាងម៉ឺងម៉ាត់ថាបាទ។ ប៉ុន្តែនេះមិនសមហេតុផលសម្រាប់ Costello ចាប់តាំងពីគាត់ត្រូវបានគេរំពឹងថានឹងមានឈ្មោះមួយហើយជំនួសមកវិញនូវចម្លើយដែលគួរឱ្យឆ្ងល់ថាបាទ / ចាស។
ការផ្លាស់ប្តូរឧបករណ៍ នៅពេលដែលវាមកដល់ការមកដល់នៃ Artificial Intelligence (AI) ដែលជាសំណួរដ៏ស្មុគស្មាញបំផុតមួយដែលបន្តសួរថា តើអ្នកណា ឬប្រហែលជាអ្វីដែលនឹងត្រូវទទួលខុសត្រូវនៅពេលដែល AI វង្វេង។
ខ្ញុំបានពិភាក្សាពីមុនអំពីការទទួលខុសត្រូវព្រហ្មទណ្ឌចំពោះពេលដែល AI ដឹកនាំ ឬធ្វើសកម្មភាពព្រហ្មទណ្ឌ សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ. វាក៏មានបញ្ហានៃការទទួលខុសត្រូវរដ្ឋប្បវេណីផងដែរ ដូចជាអ្នកណា ឬអ្វីដែលអ្នកអាចប្តឹងនៅពេលដែល AI បានធ្វើឱ្យអ្នកខុស ដែលជាប្រធានបទដែលខ្ញុំនឹងពិភាក្សានៅទីនេះ។ ទាំងអស់នេះមានការពិចារណាលើក្រមសីលធម៌ AI យ៉ាងសំខាន់។ សម្រាប់ការគ្របដណ្តប់ដែលកំពុងបន្ត និងទូលំទូលាយនៃ AI Ethics និង Ethical AI សូមមើល តំណភ្ជាប់នៅទីនេះ និង តំណភ្ជាប់នៅទីនេះ, គ្រាន់តែឈ្មោះមួយចំនួន។
សិក្ខាបទនៃក្រមសីលធម៌ AI ធ្វើឱ្យយើងមានការប្រុងប្រយ័ត្ន។ ពេលខ្លះអ្នកបច្ចេកវិទ្យា AI អាចក្លាយជាមនុស្សដែលរវល់ជាមួយបច្ចេកវិទ្យា ជាពិសេសការបង្កើនប្រសិទ្ធភាពនៃបច្ចេកវិទ្យាខ្ពស់។ ពួកគេមិនចាំបាច់ពិចារណាពីផលប៉ះពាល់សង្គមធំជាងនេះទេ។ ការមានផ្នត់គំនិត AI Ethics និងការធ្វើដូច្នេះរួមបញ្ចូលជាមួយការអភិវឌ្ឍន៍ និងការអនុវត្ត AI គឺមានសារៈសំខាន់សម្រាប់ផលិត AI ដែលសមស្រប រួមទាំង (ប្រហែលជាគួរឱ្យភ្ញាក់ផ្អើល ឬហួសចិត្ត) ការវាយតម្លៃអំពីរបៀបដែល AI Ethics ត្រូវបានក្រុមហ៊ុនទទួលយកដោយក្រុមហ៊ុន។
ក្រៅពីការប្រើប្រាស់ច្បាប់សីលធម៌ AI ជាទូទៅ មានសំណួរដែលត្រូវគ្នាថាតើយើងគួរតែមានច្បាប់ដើម្បីគ្រប់គ្រងការប្រើប្រាស់ផ្សេងៗនៃ AI ដែរឬទេ។ ច្បាប់ថ្មីកំពុងត្រូវបានដាក់ពង្រាយនៅកម្រិតសហព័ន្ធ រដ្ឋ និងមូលដ្ឋាន ដែលទាក់ទងនឹងជួរ និងលក្ខណៈនៃរបៀបដែល AI គួរតែត្រូវបានបង្កើត។ ការខិតខំធ្វើសេចក្តីព្រាង និងអនុម័តច្បាប់បែបនេះជាបណ្តើរៗ។ ក្រមសីលធម៌ AI ដើរតួជាគម្លាតដែលត្រូវបានពិចារណា យ៉ាងហោចណាស់ ហើយស្ទើរតែនឹងប្រាកដក្នុងកម្រិតខ្លះត្រូវបានដាក់បញ្ចូលទៅក្នុងច្បាប់ថ្មីទាំងនោះ។
ត្រូវដឹងថាមានអ្នកខ្លះប្រកែកយ៉ាងម៉ឺងម៉ាត់ថាយើងមិនត្រូវការច្បាប់ថ្មីដែលគ្របដណ្ដប់លើ AI ហើយថាច្បាប់ដែលមានស្រាប់របស់យើងគឺគ្រប់គ្រាន់ហើយ។ តាមពិតទៅ ពួកគេបានព្រមានថា ប្រសិនបើយើងអនុវត្តច្បាប់ AI មួយចំនួននេះ យើងនឹងសម្លាប់សត្វពពែមាស ដោយកាត់បន្ថយភាពជឿនលឿននៃ AI ដែលផ្តល់អត្ថប្រយោជន៍យ៉ាងច្រើនដល់សង្គម។
ការជជែកវែកញែកដ៏ក្តៅគគុកដែលកើតឡើងគឺថាតើច្បាប់ដែលមានស្រាប់អាចដោះស្រាយបានគ្រប់គ្រាន់នូវការលេចឡើងនៃប្រព័ន្ធ AI នៅទូទាំងសង្គម។ ទំនួលខុសត្រូវផ្លូវច្បាប់ជាធម្មតាតម្រូវឱ្យអ្នកអាចដាក់កន្ទុយលើសត្វលាថាតើអ្នកណាជាអ្នកទទួលខុសត្រូវចំពោះទង្វើបង្កគ្រោះថ្នាក់។ ក្នុងករណី AI ប្រហែលជាមានផ្លូវមិនច្បាស់លាស់ដែលភ្ជាប់បុគ្គល ឬមនុស្សជាក់លាក់ទៅនឹង AI ដែលធ្វើសកម្មភាពបង្ករបួសស្នាមខ្លះ។ AI អាចនឹងមិនអាចតាមដានបានច្រើនចំពោះប្រភព ឬអ្នកបង្កើតដែលបង្កើត AI ។
ការពិចារណាមួយទៀតគឺថា បើទោះបីជាឫសគល់នៃ AI អាចត្រូវបានតាមដានទៅកាន់នរណាម្នាក់ក៏ដោយ សំណួរគឺថាតើបុគ្គលនោះ ឬមនុស្សប្រហែលជាមិនអាចគិតទុកជាមុនអំពីលទ្ធផលអវិជ្ជមានដែល AI ផលិតនៅទីបំផុតនោះទេ។ ចំណុចសំខាន់នៃលទ្ធភាពអាចដឹងជាមុន គឺជាកត្តាដែលគួរអោយកត់សំគាល់ជាទម្លាប់ក្នុងការវាយតម្លៃការទទួលខុសត្រូវផ្លូវច្បាប់។
អ្នកប្រហែលជាត្រូវបានល្បួងឱ្យគិតថា អ្នកអាចធ្វើតាម AI ដោយខ្លួនឯង ហើយដាក់ឈ្មោះ AI ថាជាភាគីស្របច្បាប់ដែលទទួលខុសត្រូវ ឬទទួលខុសត្រូវចំពោះការខូចខាតណាមួយដែលត្រូវបានចោទប្រកាន់។ ជាទូទៅ ទិដ្ឋភាពផ្លូវច្បាប់ទូទៅគឺថា AI មិនទាន់ឈានដល់កម្រិតនៃភាពជាបុគ្គលស្របច្បាប់នៅឡើយ។ ដូច្នេះហើយ អ្នកនឹងមិនអាចនិយាយយ៉ាងតឹងរ៉ឹងដើម្បីស្វែងរក AI ដើម្បីបង់ថ្លៃនោះទេ ហើយនឹងត្រូវស្វែងរកមនុស្សដែលកំពុងធ្វើការនៅខាងក្រោយឆាកដូចដែលវាគឺ (សម្រាប់ការវិភាគរបស់ខ្ញុំអំពីភាពស្របច្បាប់សម្រាប់ AI សូមមើល តំណភ្ជាប់នៅទីនេះ).
ទៅក្នុងសកម្មភាពផ្លូវច្បាប់ដ៏មានសក្តានុពលទាំងអស់នេះ ជំហានគំនិតមួយដែលកំពុងត្រូវបានអណ្តែតជាមធ្យោបាយដោះស្រាយដែលអាចធ្វើទៅបាន ទាំងនៅលើមូលដ្ឋានរយៈពេលខ្លី ឬប្រហែលជានៅលើរយៈពេលវែង។ គំនិតនេះគឺថា ប្រហែលជាមូលនិធិសំណងពិសេសមួយគួរតែត្រូវបានបង្កើតឡើងដើម្បីផ្តល់ជំនួយផ្នែកហិរញ្ញវត្ថុសម្រាប់អ្នកដែលត្រូវបានបំផ្លាញដោយ AI ។ បើមិនដូច្នេះទេ អ្នកមិនអាចយក AI មកផ្តល់សំណងដល់អ្នកបានទេ ហើយអ្នកមិនអាចទម្លាក់កំហុសលើមនុស្សដែលគួរទទួលខុសត្រូវ នោះជម្រើសដ៏ល្អបំផុតបន្ទាប់អាចជាការចូលទៅក្នុងមូលនិធិសំណងដែលមានគោលបំណងជួយអ្នកដែលរងគ្រោះថ្នាក់ដោយ AI ។
មូលនិធិបែបនេះនឹងស្រដៀងទៅនឹងទម្រង់នៃការធានារ៉ាប់រងប្រភេទមួយ ដូចដែលមានចែងនៅក្នុងឯកសារស្រាវជ្រាវដែលជំរុញឱ្យមានការគិតមួយថា “នេះនឹងក្លាយជាយន្តការធានារ៉ាប់រងប្រឆាំងនឹងភាពមិនប្រាកដប្រជា៖ ក្របខ័ណ្ឌច្បាស់លាស់ និងតម្លាភាពសម្រាប់សំណងឆាប់រហ័ស ក្នុងករណីដែលបណ្តឹងទទួលខុសត្រូវមាន ភាពមិនប្រាកដប្រជា ឬគ្មានការរំពឹងទុកនៃភាពជោគជ័យ ដោយសារធម្មជាតិដែលមិនអាចទាយទុកជាមុនបាននៃអាកប្បកិរិយាដែលខូចខាត ការខូចខាត (ប្រភេទនៃ) ខ្លួនវាផ្ទាល់ ឬការចំណាយលើសលប់ និង/ឬភាពស្មុគស្មាញនៃនីតិវិធី” (អត្ថបទដោយ Olivia Erdelyi និង Gabor Erdelyi, "The AI Liability Puzzle Puzzle និងការងារជុំវិញមូលនិធិ”, ទិនានុប្បវត្តិនៃការស្រាវជ្រាវបញ្ញាសិប្បនិម្មិត, 2021) ។
មូលនិធិសំណងនឹងជាផ្នែកមួយនៃគ្រោងការណ៍ធានា AI (AIGS) ដ៏ទូលំទូលាយ ហើយត្រូវបានអមដោយការផ្លាស់ប្តូរការប៉ះពន្លឺមួយចំនួនចំពោះច្បាប់ដែលមានស្រាប់អំពីការទទួលខុសត្រូវផ្នែកច្បាប់។ ការប៉ះស្រាលនឹងអាចសន្មត់ថាងាយស្រួលជាងក្នុងការអនុម័ត និងមិនតម្រូវឱ្យមានប្រភេទនៃភាពលំបាកខាងផ្លូវច្បាប់ និងសង្គម ប្រសិនបើការផ្លាស់ប្តូរបាតុកម្មជាបន្តបន្ទាប់ត្រូវបានធ្វើឡើងចំពោះរបបច្បាប់ដែលមានស្រាប់។ យោងទៅតាមអ្នកស្រាវជ្រាវ៖ "នេះឆ្លុះបញ្ចាំងពីជំនឿរបស់យើងដែលថា ទោះបីជាមានការអំពាវនាវនៃដំណោះស្រាយរហ័សបែបនេះក៏ដោយ - ក៏ដោយ។ មិនបានកែប្រែ ការអនុវត្តច្បាប់ទំនួលខុសត្រូវដែលមានស្រាប់ចំពោះ AI ឬ ក ជំរុញដោយការការពារនិយម ការទាមទារឱ្យទទួលខុសត្រូវយ៉ាងតឹងរឹង ក្នុងគោលបំណងបង្កើតទំនួលខុសត្រូវក្នុងការចំណាយណាមួយ មិនមែនជាចម្លើយត្រឹមត្រូវសម្រាប់ហេតុផលបីយ៉ាង៖ ទីមួយ ការមិនអើពើថាច្បាប់ទាំងនោះត្រូវបានកែសម្រួលទៅតាមកាលៈទេសៈផ្សេងៗគ្នា ហើយដូច្នេះអាចមិនសមរម្យសម្រាប់ AI ទេ ពួកវាផ្ទុយនឹងគោលបំណងដែលមានតុល្យភាពល្អនៃ ប្រព័ន្ធទទួលខុសត្រូវផ្លូវច្បាប់។ ទីពីរ ពួកគេរារាំងការច្នៃប្រឌិត AI ដោយប្រកាន់យកវិធីសាស្រ្តដាក់ទណ្ឌកម្មដែលមិនសមរម្យ។ ទីបី ការប្រើប្រាស់ទំនួលខុសត្រូវដ៏តឹងរឹងហួសហេតុគ្រាន់តែជៀសផុតពីការមើលឃើញទុកជាមុន និងបញ្ហាកំហុសក្នុងលក្ខណៈមិនស៊ីសង្វាក់គ្នាជាជាងការដោះស្រាយពួកគេ” (ដូចក្នុងក្រដាសដែលបានលើកឡើងខាងលើ)។
អំណះអំណាងក្នុងការពេញចិត្តនៃមូលនិធិសំណង AI រួមមាន:
- កាត់បន្ថយតម្រូវការសម្រាប់ការសាកល្បងផ្លូវច្បាប់ដ៏យូរ និងថ្លៃដើម ដើម្បីទប់ទល់នឹងគ្រោះថ្នាក់ដែលបណ្តាលមកពី AI
- ធានាដល់មនុស្សថាពួកគេអាចប្រើប្រាស់ AI និងទទួលបានសំណងប្រសិនបើមានគ្រោះថ្នាក់
- លើកកម្ពស់ការច្នៃប្រឌិត AI ដោយកាត់បន្ថយភាពមិនច្បាស់លាស់ផ្នែកច្បាប់ដែលប្រឈមមុខនឹងអ្នកច្នៃប្រឌិត AI
- អាចត្រូវបានដាក់ឱ្យប្រើប្រាស់លឿនជាងការធ្វើការផ្លាស់ប្តូរយ៉ាងធំចំពោះច្បាប់ដែលមានស្រាប់
- ផ្ដល់ជូននូវមធ្យោបាយដោះស្រាយច្បាស់លាស់ដែលអាចទុកចិត្តបាន និងអាចរកបានយ៉ាងងាយស្រួល
- ផ្សេងទៀត
ទន្ទឹមនឹងនេះ អ្នកដែលប្រឆាំងនឹងវិធីសាស្រ្តនៃមូលនិធិសំណង AI និយាយថា៖
- សូមឱ្យអ្នកបង្កើត AI ហួសហេតុពេក ហើយអនុញ្ញាតឱ្យពួកគេកាត់បន្ថយការទទួលខុសត្រូវ
- នឹងជំរុញអ្នកបង្កើត AI ឱ្យបង្កើត AI ដែលខ្វះសុវត្ថិភាព និងការគ្រប់គ្រងត្រឹមត្រូវ។
- អាចជំរុញមនុស្សឱ្យមានការក្លែងបន្លំការអះអាងពីការខូចខាត AI ដូច្នេះពួកគេអាចចូលទៅក្នុងមូលនិធិ
- ភាគីម្ខាង និងធ្វើឱ្យខូចដល់តម្រូវការពិត ក្នុងការកែប្រែច្បាប់របស់យើង ដើម្បីគ្រប់គ្រង AI ឱ្យបានគ្រប់គ្រាន់
- អាចក្លាយជាសុបិន្តអាក្រក់របស់ការិយាធិបតេយ្យដែលរអាក់រអួល និងប្រើប្រាស់ថវិកាខុស
- ផ្សេងទៀត
ដូចជាអាចជាភស្តុតាង មានទាំងអ្នកគាំទ្រ និងអ្នកប្រឆាំងនៃគំនិតចម្រូងចម្រាសទាំងស្រុង។
អ្នកនឹងពិបាកក្នុងការបដិសេធដោយសង្ខេបអំពីមូលនិធិសំណង AI ជាវិធីសាស្ត្រដ៏មានសក្តានុពលចំពោះការកើនឡើងនៃការព្រួយបារម្ភអំពី AI ដែលបណ្តាលឲ្យមានគ្រោះថ្នាក់។ ដំណោះស្រាយដែលបានស្នើឡើងក៏មិនមែនជាការទះកំផ្លៀងដែរ។
ទស្សនៈមួយគឺថាអ្នកបង្កើត AI នឹងត្រូវការបញ្ចូលប្រាក់ទៅក្នុងមូលនិធិដែលជាផ្នែកមួយនៃកិច្ចខិតខំប្រឹងប្រែងរបស់ពួកគេនៅពេលបង្កើត និងផ្សព្វផ្សាយ AI ។ នេះអាចត្រូវបានបកស្រាយថាជាប្រភេទថ្លៃសេវា ឬពន្ធដែលពួកគេតម្រូវឱ្យទទួលជាផ្នែកមួយនៃការអាចបញ្ចេញ AI របស់ពួកគេទៅកាន់ពិភពលោក។ ប៉ុន្តែតើការចំណាយបន្ថែមនេះ អាចរារាំងកិច្ចខិតខំប្រឹងប្រែងដោយអ្នកចាប់ផ្តើមអាជីវកម្មដែលកំពុងព្យាយាមជំរុញព្រំដែននៃ AI នាពេលបច្ចុប្បន្ននេះទេ? ហើយតើការអនុវត្តនៃការធ្វើឱ្យប្រាកដថាអ្នកផលិត AI បង់ថ្លៃ ឬពន្ធនឹងត្រូវដោះស្រាយដោយរបៀបណា?
សំណួរមួយចំនួនបានកើតឡើង ហើយនឹងត្រូវដោះស្រាយចេញ៖
- តើប្រទេសណាខ្លះដែលមូលនិធិសំណង AI អាចធ្វើបានល្អបំផុត?
- តើទម្រង់ជាសកលនៃមូលនិធិសំណង AI ដែលទាក់ទងគ្នាអាចត្រូវបានបង្កើតឡើងដែរឬទេ?
- តើអ្វីជាយន្តការលម្អិត និងអាចដំណើរការបានដែលទាក់ទងនឹងមូលនិធិបែបនេះ?
- តើមូលនិធិសំណង AI ត្រូវបានផ្តល់មូលនិធិដោយរបៀបណា (សាធារណៈ ឯកជន សប្បុរសធម៌)?
- តើនេះជាមូលដ្ឋានធានារ៉ាប់រងគ្មានកំហុស ឬនឹងមានវិធីសាស្ត្រផ្សេងទៀតត្រូវបានគេចាត់ទុកដែរឬទេ?
- ល
អាណាចក្រមួយដែលមានគំនិតផ្តល់ប្រាក់សំណង AI រួចហើយមានប្រព័ន្ធស្វយ័តដូចជារថយន្តស្វយ័ត និងរថយន្តដែលបើកបរដោយខ្លួនឯង។ សម្រាប់ការគ្របដណ្តប់របស់ខ្ញុំអំពីរថយន្តបើកបរដោយខ្លួនឯង និងប្រព័ន្ធស្វ័យប្រវត្តិ AI សូមមើល តំណភ្ជាប់នៅទីនេះ.
នេះជារូបភាពបង្ហាញពីរបៀបដែលវាអាចដំណើរការសម្រាប់រថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI ។
ឧបមាថារថយន្តដែលបើកបរដោយខ្លួនឯងបានបុកអ្នកជិះកង់។ អ្នកជិះកង់រងគ្រោះ។ អ្នកជិះកង់អាចនឹងស្វែងរកការដោះស្រាយតាមផ្លូវច្បាប់ដោយការតាមរកក្រុមហ៊ុនផលិតរថយន្តស្វយ័ត។ ឬពួកគេអាចនឹងផ្តោតលើក្រុមហ៊ុនបច្ចេកវិទ្យាបើកបរដោយខ្លួនឯងដែលបង្កើតប្រព័ន្ធបើកបរ AI ។ ប្រសិនបើរថយន្តបើកបរដោយខ្លួនឯងកំពុងដំណើរការជាកងនាវា មធ្យោបាយផ្លូវច្បាប់មួយទៀតគឺត្រូវស្វែងរកប្រតិបត្តិករកងនាវា។ ការព្យាយាមប្តឹង AI មិនមែនជាជម្រើសនៅដំណាក់កាលនេះទេ ដោយសារភាពស្របច្បាប់របស់ AI មិនទាន់ត្រូវបានបង្កើតឡើងនៅឡើយ។
ជាជាងចាត់វិធានការផ្លូវច្បាប់ប្រឆាំងនឹងភាគីណាមួយនោះ ការទាមទារមួយទៀតគឺការដាក់ពាក្យស្នើសុំ ឬទាមទារទៅមូលនិធិសំណង AI ដែលសមស្រប។ មូលនិធិនឹងមានដំណើរការផ្លូវការដែលពាក់ព័ន្ធនឹងការពិនិត្យឡើងវិញលើការទាមទារ ហើយបន្ទាប់មកកំណត់ថាតើការបង់ប្រាក់សំណងណាមួយអាចត្រូវបានផ្តល់ជូនអ្នកទាមទារ។ វាអាចមានដំណើរការបណ្តឹងឧទ្ធរណ៍ដែលជួយអ្នកទាមទារដែលជឿថាពួកគេត្រូវបានបដិសេធដោយមិនត្រឹមត្រូវដោយមូលនិធិ ឬផ្តល់សំណងមិនគ្រប់គ្រាន់ដោយមូលនិធិ។
តាមទ្រឹស្តី មូលនិធិសំណង AI នឹងក្លាយជាផ្លូវលឿនជាងមុនឆ្ពោះទៅរកការទទួលបានសំណងសម្រាប់ការខូចខាតដែលបានធ្វើ។ អ្នកអាចស្រមៃមើលថាតើបណ្ដឹងអាចនឹងលំបាកប៉ុណ្ណា ដែលក្រុមហ៊ុនដែលត្រូវបានប្ដឹងអាចនឹងព្យាយាមទាញយកករណីនេះចេញ។
ទោះបីជាមេធាវីអាចសង្កត់ធ្ងន់ថាមូលនិធិសំណង AI អាចអនុញ្ញាតឱ្យភាគីផ្សេងទៀតដូចជាអ្នកបង្កើត AI ហាក់ដូចជាជៀសវាងការពិន័យយ៉ាងច្បាស់លាស់ចំពោះការដោះលែងរថយន្តបើកបរដោយខ្លួនឯងនៅលើផ្លូវសាធារណៈដែលបណ្តាលឱ្យអ្នកជិះកង់ធ្វើកូដកម្ម។ តើក្រុមហ៊ុនទាំងនោះអាចរើសយកអ្វីផ្សេងទៀតដើម្បី«មិនខ្វល់»ធ្វើ? បើគ្មានការមើលឃើញច្បាស់នៃដាវច្បាប់ដែលព្យួរលើក្បាលរបស់ពួកគេទេ យើងអាចឃើញខ្លួនយើងជារៀងរាល់ថ្ងៃប្រឈមមុខនឹង AI ដែលសំបូរទៅដោយសមត្ថភាពគ្រោះថ្នាក់។
ជុំវិញការជជែកវែកញែកទៅ។
សន្និដ្ឋាន
AI Ethics រំលឹកយើងថា យើងគួរតែគិតគូរអំពីគុណធម៌ និងផ្លូវច្បាប់របស់ AI ជានិច្ច។ នៅក្នុងករណីនៃមូលនិធិសំណង AI នេះ គំនិតដែលបានស្នើឡើងនៃមូលនិធិដែលស្រដៀងនឹងការធានារ៉ាប់រងសម្រាប់ការទូទាត់សំណងដែលបង្កគ្រោះថ្នាក់ដោយ AI ហាក់ដូចជាទាក់ទាញ។ មូលនិធិហាក់បីដូចជាកំពុងរង់ចាំនៅទីនោះ ត្រៀមខ្លួនរួចជាស្រេចក្នុងការទាញយក និងផ្តល់សំណងឆាប់បំផុត។
ការដោះដូរថាតើវាអាចបើកទ្វារទឹកជំនន់ឆ្ពោះទៅរកការបង្កើត AI ដែលមានការគ្រប់គ្រងសុវត្ថិភាពតិចជាងមុន គឺជារឿងដ៏គួរឱ្យភ័យខ្លាច និងជាកង្វល់ពិតប្រាកដផងដែរ។ យើងប្រហែលជាមិនត្រូវការបន្ថែមឥន្ធនៈទៅក្នុងភ្លើងដែលប្រហែលជាកំពុងដំណើរការហើយនោះទេ។
តើយើងអាចនៅតែរក្សាអ្នកបង្កើត AI ដើម្បីរៀបចំ Ethical AI សមស្រប និងក្នុងពេលដំណាលគ្នាបង្កើតមូលនិធិសំណង AI ទាំងនេះបានទេ?
អ្នកខ្លះនឹងនិយាយថា បាទ យើងអាចធ្វើបាន។ តាមរយៈការច្រានចោលច្បាប់ដែលមានស្រាប់ ដើម្បីតម្រឹមជាមួយមូលនិធិសំណង AI អ្នកដែលរងគ្រោះថ្នាក់ដោយ AI អាចមានលទ្ធភាពមានផ្លូវពីរដើម្បីស្វែងរកសំណងសមរម្យរបស់ពួកគេ។
តើអ្នកណាមុនគេ?
មែនហើយ នោះគឺជាអ្នកដែល (ដូចនៅក្នុងពួកយើងទាំងអស់គ្នា) នៅក្នុងការជូនដំណឹងដំបូងថា យើងគួរតែពិចារណាលើការប្រើប្រាស់សក្តានុពលនៃមូលនិធិសំណង AI និងការកែប្រែច្បាប់ដែលមានស្រាប់ ទោះបីជាគ្រាន់តែស្រាលក៏ដោយ ដោយផ្តល់នូវមធ្យោបាយដើម្បីដោះស្រាយជាមួយនឹងការវាយលុកនៃ AI ល្អ និង AI អាក្រក់។
មិនមានការភាន់ច្រលំអំពីការពិចារណាដ៏សំខាន់នោះទេ។
ប្រភព៖ https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- គណនេយ្យភាព/