ការបញ្ចូលហេតុផលផ្នែកច្បាប់ទៅក្នុង AI អាចសម្រេចបាននូវការតម្រឹមតម្លៃមនុស្សយ៉ាងឆ្លាតវៃនិយាយថា ក្រមសីលធម៌ AI និងច្បាប់ AI

នៅក្នុងជួរឈរថ្ងៃនេះ ខ្ញុំនឹងត្បាញប្រធានបទជាច្រើនដែលមើលទៅហាក់ដូចជាខុសគ្នាពី AI ទៅជាក្រណាត់ត្បាញដ៏ស្រស់ស្អាតមួយ។

តើ​អ្នក​រូ​ច​រាល់​ហើយ​ឬ​នៅ​?

ស្រមៃថាអ្នកកំពុងប្រើកម្មវិធីដែលដំណើរការដោយ AI ដែលជួយអ្នកពេលកំពុងបំពេញកិច្ចការសំខាន់ៗមួយចំនួន។ ប្រហែលជាបញ្ហាហិរញ្ញវត្ថុ ឬអាចជាបញ្ហាសុខភាព។ ខ្លឹមសារគឺថាអ្នកពឹងផ្អែកលើ AI ដើម្បីធ្វើរឿងត្រឹមត្រូវ និងអនុវត្តក្នុងលក្ខណៈសុវត្ថិភាព និងសមហេតុផល។

ឧបមាថា AI ចូលទៅក្នុងទឹកដីដែលគ្មានសីលធម៌។

អ្នកប្រហែលជាមិនដឹងថា AI កំពុងធ្វើដូច្នេះទេ។

ជាឧទាហរណ៍ AI អាចពឹងផ្អែកលើកត្តារើសអើងដែលលាក់កំបាំង ដូចជាពូជសាសន៍ ឬភេទ ទោះបីអ្នកប្រហែលជាមិនមានមធ្យោបាយដែលអាចសម្រេចបានក្នុងការយល់ដឹងពីការប្រើប្រាស់ដែលមិនសមហេតុផលក៏ដោយ។ នៅទីនោះអ្នកតែម្នាក់ឯង ទទួលបានចុងខ្លីនៃដំបងតាមរយៈ AI ដែលត្រូវបានរៀបចំចេញពីផ្លូវដែលមានបញ្ហា ឬបានគ្រប់គ្រងដើម្បីឈានទៅរកគ្រោះថ្នាក់ខាងសីលធម៌ និងព្រំដែន (ខ្ញុំនឹងនិយាយបន្ថែមទៀតអំពី មួយភ្លែតនេះ)។

តើ​អ្នក​អាច​ធ្វើ​អ្វី​បាន ឬ​អ្វី​ដែល​អាច​ធ្វើ​បាន​អំពី AI ដែល​ជ្រើសរើស​ដើរ​តាម​ផ្លូវ​គ្មាន​សីលធម៌?

ក្រៅពីការព្យាយាមសាងសង់ AI ជាមុន ដើម្បីកុំឱ្យវាធ្វើសកម្មភាពអាក្រក់បែបនេះ ខ្ញុំក៏ធ្លាប់បានរៀបរាប់លម្អិតផងដែរថា មានការចាប់អារម្មណ៍កើនឡើងក្នុងការបង្កប់ ការត្រួតពិនិត្យក្រមសីលធម៌ AI សមាសធាតុចូលទៅក្នុងវាលស្មៅដែលកំពុងរីកដុះដាលនៃ Wild West អ្វីក៏ដោយដែលប្រព័ន្ធ AI ត្រូវបានគេបោះចូលទៅក្នុងទីផ្សារ។ គំនិតនេះគឺថា ដើម្បីព្យាយាម និងការពារកម្មវិធីដែលបញ្ចូល AI ពីការចូលទៅក្នុងវិមាត្រសីលធម៌ យើងអាចប្រើ AI បន្ថែមដើម្បីធ្វើការត្រួតពិនិត្យ និងតុល្យភាព។ AI ដែលត្រូវបានបន្ថែមនេះអាចស្ថិតនៅក្រៅកម្មវិធី AI គោលដៅ ឬអាចជាធាតុផ្សំដែលបានបង្កប់ ឬបញ្ចូលដោយផ្ទាល់ទៅក្នុង AI ដែលយើងចង់ធ្វើការត្រួតពិនិត្យពីរដង។

ដូចដែលខ្ញុំបាននិយាយពីមុនសូមមើល តំណភ្ជាប់នៅទីនេះ: “និន្នាការដែលកំពុងលេចចេញនាពេលថ្មីៗនេះរួមមានការព្យាយាមបង្កើតផ្លូវការពារសីលធម៌ទៅក្នុង AI ដែលនឹងចាប់បាន នៅពេលដែលប្រព័ន្ធ AI ដែលនៅសល់ចាប់ផ្តើមហួសពីព្រំដែនក្រមសីលធម៌ដែលបានកំណត់ទុកជាមុន។ ក្នុងន័យមួយ គោលដៅគឺប្រើប្រាស់ AI ខ្លួនឯង ដើម្បីរក្សាខ្លួនពីភាពខុសឆ្គងខាងសីលធម៌។ អ្នក​អាច​និយាយ​បាន​ថា​យើង​មាន​គោល​បំណង​ឱ្យ AI ព្យាបាល​ដោយ​ខ្លួន​វា​ផ្ទាល់» (Lance Eliot, "Crafting Ethical AI That Monitors Unethical AI and Tries To Deter Bad AI from Acting Up", ទស្សនាវដ្តី Forbes, ថ្ងៃទី 28 ខែមីនា ឆ្នាំ 2022)។

អ្នកក៏អាចរកឃើញចំណាប់អារម្មណ៍ដែលពាក់ព័ន្ធសៀវភៅរបស់ខ្ញុំនៅលើ រូបយន្តអាណាព្យាបាល AIជួនកាលគេហៅថា ទេវតាអាណាព្យាបាល ដែលគ្របដណ្ដប់លើផ្នែកបច្ចេកទេសនៃ AI-in-the-art ដែលបានបង្កប់ក្នុង AI អ្នកត្រួតពិនិត្យពីរដងសូមមើល តំណភ្ជាប់នៅទីនេះ.

ចំនុចសំខាន់គឺថា bacon របស់អ្នកអាចនឹងត្រូវបានសង្គ្រោះដោយអរគុណដោយការប្រើប្រាស់ AI បង្កប់នូវធាតុវាស់សីលធម៌ពីរដងដែលត្រូវបានបង្កើត និងបញ្ចូលទៅក្នុងកម្មវិធី AI ដែលអ្នកកំពុងប្រើ។ ប៉ុន្តែតើវាគ្រប់គ្រាន់ទេសម្រាប់អាណាព្យាបាល ដើម្បីប្រាកដថា AI មិនរឹងរូសអ្នកទាំងស្រុង ហើយចូលទៅក្នុងដីដែលបង្កគ្រោះថ្នាក់សូម្បីតែមួយ?

អ្នកឃើញទេ កម្មវិធី AI អាចដំណើរការបានយ៉ាងច្បាស់ ខុសច្បាប់ ទង្វើ។

វាជារឿងមួយដែល AI ដែលចូលទៅក្នុងតំបន់ពណ៌ប្រផេះនៃអ្វីដែលយើងចាត់ទុកថាជាអាកប្បកិរិយាប្រកបដោយសីលធម៌ ឬគ្មានសីលធម៌។ អាកប្បកិរិយាមិនសមរម្យស្មើគ្នា និងការព្រួយបារម្ភដែលទំនងជាកាន់តែអាក្រក់ទៅៗ AI ដែលគ្រាន់តែលោតផ្លោះឆ្លាមដូចដែលវាមាន ហើយធ្លាក់ចូលទៅក្នុងភាពងងឹតដ៏អាក្រក់នៃអំពើខុសច្បាប់ទាំងស្រុង។

AI ខុសច្បាប់គឺអាក្រក់។ ការអនុញ្ញាតឱ្យ AI ខុសច្បាប់ទៅដោយគ្មានអ្នកមើលគឺជារឿងអាក្រក់។ អ្នកប្រាជ្ញផ្នែកច្បាប់មួយចំនួនមានការព្រួយបារម្ភជាចំហថា ការមកដល់ និងការរីករាលដាលនៃ AI នឹងកាត់បន្ថយបន្តិចម្តងៗ និងគួរឱ្យភ័យខ្លាចចំពោះរូបរាងរបស់យើងនៃ នីតិរដ្ឋសូមមើលការវិភាគរបស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ.

រង់ចាំមួយវិនាទី អ្នកប្រហែលជាកំពុងនិយាយ។

អ្នក​អាច​នឹង​ត្រូវ​បាន​ល្បួង​ឱ្យ​គិត​ថា​អ្នក​បង្កើត AI នឹង​ មិនដែល កម្មវិធី AI របស់ពួកគេដើម្បីប្រឆាំងនឹងច្បាប់។ នឹកស្មានមិនដល់។ មានតែមនុស្សអាក្រក់ទេដែលនឹងធ្វើដូច្នេះ (ដែលតាមវិធីនេះ សូមចងចាំថាមានអ្នកដែលមានចេតនាបង្កើត និងប្រើប្រាស់ AI សម្រាប់គោលបំណងអាក្រក់ ដែលជាតំបន់ចាប់អារម្មណ៍ចំពោះឧក្រិដ្ឋជន និងអ្នកដទៃដែលចង់ប្រើ AI សម្រាប់សកម្មភាពមិនសមរម្យ)។

សូមអភ័យទោស ប៉ុន្តែវាជាការគិតប្រកបដោយក្តីប្រាថ្នាក្នុងការសន្មត់ថាអ្នកអភិវឌ្ឍន៍ AI ដែលមិនអាក្រក់ទាំងអស់នឹងធ្វើឱ្យប្រាកដថា AI របស់ពួកគេមានច្បាប់ពេញលេញ។ វាអាចថា AI កែប្រែខ្លួនឯង និងវង្វេងចូលទៅក្នុងសកម្មភាពខុសច្បាប់។ ជាការពិតណាស់ វាក៏មានសក្តានុពលដែលអ្នកអភិវឌ្ឍន៍ AI ចង់ឱ្យ AI ធ្វើសកម្មភាពខុសច្បាប់ ឬថាពួកគេមិនបានដឹងអំពីអ្វីដែលបង្កើតបានជាខុសច្បាប់ធៀបនឹងទង្វើផ្លូវច្បាប់ នៅពេលដែលពួកគេកំពុងបង្កើត AI (បាទ វាអាចទៅរួចណាស់ ពោលគឺថា ក្រុមបច្ចេកវិទ្យា AI ទាំងអស់ដែលដឹកនាំដោយព្រឹទ្ធាចារ្យអាចមានភាពល្ងង់ខ្លៅចំពោះភាពស្របច្បាប់នៃ AI របស់ពួកគេ ដែលវាមិនអាចដោះសារបាន និងនៅតែកើតឡើងជាមួយនឹងប្រេកង់នៃការប្រកាសអាសន្ន)។

តើអាចធ្វើអ្វីបានអំពីរឿងនេះ?

ជាថ្មីម្តងទៀត ក្រៅពីការព្យាយាមដើម្បីធានាថា AI នៅខាងក្រៅទ្វារត្រូវបានបិទដោយដែក និងស្របច្បាប់ វិធីសាស្រ្តបន្ថែមក្នុងការទទួលបានចំហាយទឹកពាក់ព័ន្ធនឹងការបង្កប់ ឬបញ្ចូលសមាសធាតុ AI ដែលធ្វើការត្រួតពិនិត្យពីរដងស្របច្បាប់សម្រាប់កម្មវិធី AI ដែលនៅសល់។ ដោយអង្គុយស្ងៀម ហើយជារឿយៗមិនមានការបញ្ជាក់ AI ដែលត្រូវបានបន្ថែមនេះកំពុងសង្កេតមើល AI ដែលនៅសល់ ដើម្បីសាកល្បង និងស្វែងយល់ថាតើ AI នឹងទៅជាបញ្ឆោតឬយ៉ាងហោចណាស់ឈានទៅហួសដែនកំណត់នៃការរឹតបន្តឹងផ្នែកច្បាប់ ឬបទប្បញ្ញត្តិ។

ឥឡូវនេះ យើងមាន AI ពីរប្រភេទនៃការត្រួតពិនិត្យពីរដងដែលត្រូវបានបង្កប់នៅក្នុងកម្មវិធី AI៖

  • អ្នកត្រួតពិនិត្យទ្វេដងនៃក្រមសីលធម៌ AI៖ នៅក្នុងពេលវេលាជាក់ស្តែង សមាសភាគនេះ ឬកម្មវិធីបន្ថែម AI វាយតម្លៃផ្នែកដែលនៅសល់នៃ AI សម្រាប់អាកប្បកិរិយាប្រកបដោយក្រមសីលធម៌ និងគ្មានសីលធម៌ដែល AI បង្ហាញ
  • AI Legal អ្នកត្រួតពិនិត្យពីរដង៖ នៅក្នុងពេលវេលាជាក់ស្តែង សមាសភាគនេះ ឬកម្មវិធីបន្ថែម AI វាយតម្លៃផ្នែកដែលនៅសល់នៃ AI សម្រាប់ការធានានៃការស្នាក់នៅក្នុងគន្លឺះផ្លូវច្បាប់ និងសម្រាប់ការចាប់សកម្មភាពខុសច្បាប់ដែលកំពុងកើតឡើងដោយ AI

ដើម្បីបញ្ជាក់ ទាំងនោះគឺជាគំនិតថ្មី ហើយដូចដែល AI ដែលអ្នកកំពុងប្រើសព្វថ្ងៃនេះអាចស្ថិតនៅក្នុងលក្ខខណ្ឌណាមួយនាពេលបច្ចុប្បន្ននេះ៖

  • AI ដែល​មិន​មាន​អ្នក​ត្រួត​ពិនិត្យ​ពីរ​រួម​បញ្ចូល​ទាំង​អស់
  • AI ដែលមាន AI Ethics double-checker រួមបញ្ចូល ប៉ុន្តែមិនមានអ្នកត្រួតពិនិត្យពីរដងផ្សេងទៀតទេ។
  • AI ដែលមាន AI Legal double-checker រួមបញ្ចូល ប៉ុន្តែមិនមានអ្នកត្រួតពិនិត្យពីរដងផ្សេងទៀតទេ។
  • AI ដែលមានទាំង AI Ethics double-checker និង AI Legal double-checker
  • ផ្សេងទៀត

មានទិដ្ឋភាពដ៏លំបាកមួយចំនួននៃការមានទាំងអ្នកត្រួតពិនិត្យទ្វេដង AI Ethics និង AI Legal double-checker ធ្វើការដោយភាគីម្ខាងៗនៅក្នុងកម្មវិធី AI ជាបងប្អូនបង្កើត។ នេះគឺជាប្រភេទនៃការសម្របសម្រួលទ្វេរដង ដែលអាចពិបាកក្នុងការសម្របសម្រួលជាងការស្មាន (ខ្ញុំគិតថាយើងទាំងអស់គ្នាដឹងថាបងប្អូនប្រុសស្រីអាចមានចំណងដ៏តឹងរ៉ឹងបំផុត ទោះបីជាពួកគេក៏អាចប្រយុទ្ធបានដូចពួកឌីកឃីនពីពេលមួយទៅពេលមួយ និងមានការប្រឆាំងយ៉ាងខ្លាំងក្លា។ ទស្សនៈ)។

ខ្ញុំ​បាន​ពិភាក្សា​អំពី​ការ​លំបាក​ប្រភេទ​នេះ។ ទ្វេនិយម៖ “ភាពមិនអើពើទ្វេរភាគីកំពុងកើតឡើងនៅក្នុង AI សម្រាប់ Social Good ដែលពាក់ព័ន្ធនឹងការខ្វះការរួមបញ្ចូលទាំងតួនាទីនៃភ្នាក់ងារសីលធម៌សិប្បនិម្មិត និងហេតុផលផ្នែកច្បាប់សិប្បនិម្មិតនៅក្នុងប្រព័ន្ធ AI កម្រិតខ្ពស់។ កិច្ចខិតខំប្រឹងប្រែងរបស់អ្នកស្រាវជ្រាវ AI និងអ្នកអភិវឌ្ឍន៍ AI មានទំនោរផ្តោតលើវិធីបង្កើត និងបង្កប់ភ្នាក់ងារសីលធម៌សិប្បនិម្មិត ដើម្បីណែនាំការសម្រេចចិត្តខាងសីលធម៌ នៅពេលដែលប្រព័ន្ធ AI កំពុងដំណើរការនៅក្នុងវិស័យនេះ ប៉ុន្តែមិនបានផ្តោតលើ និងបូកបញ្ចូលការប្រើប្រាស់សមត្ថភាពហេតុផលផ្លូវច្បាប់សិប្បនិម្មិតនោះទេ។ ដែលចាំបាច់ដូចគ្នាសម្រាប់លទ្ធផលខាងសីលធម៌ និងផ្លូវច្បាប់ដ៏រឹងមាំ” (Lance Eliot, “The Neglected Dualism Of Artificial Moral Agency and Artificial Legal Reasoning In AI For Social Good,” សាកលវិទ្យាល័យ Harvard CRCS Annual Conference 2020, មជ្ឈមណ្ឌល Harvard សម្រាប់សង្គមស្រាវជ្រាវ និងគណនា)

ប្រសិនបើអ្នកចង់គុយទាវអំពីមូលហេតុដែលអាចមានភាពតានតឹងរវាងអ្នកត្រួតពិនិត្យពីរដងនៃក្រមសីលធម៌ AI និងអ្នកត្រួតពិនិត្យពីរដងផ្នែកច្បាប់ AI អ្នកអាចរកឃើញសម្រង់ដ៏គួរឱ្យកត់សម្គាល់នេះនៃភាពសក្ដិសមនៃគំនិតដែលពត់ខ្លួន៖ "ច្បាប់អាចអនុញ្ញាតិឱ្យធ្វើសកម្មភាពពិសេសមួយចំនួន។ ទោះបីជាទង្វើនោះជាអំពើអសីលធម៌ក៏ដោយ ហើយ​ច្បាប់​អាច​ហាមប្រាម​ទង្វើ​មួយ ទោះជា​ទង្វើ​នោះ​ត្រូវ​បាន​អនុញ្ញាត​ដោយ​សីលធម៌ ឬ​តម្រូវ​ឱ្យ​មាន​សីលធម៌​ក៏ដោយ​» ( Shelly Kagan, ដែនកំណត់នៃសីលធម៌, 1998) ។

ចូរយើងផ្លាស់ប្តូរការផ្តោតអារម្មណ៍របស់យើងបន្តិច ហើយមើលពីរបៀបដែលឧបករណ៍ត្រួតពិនិត្យពីរដងទាំងនេះចូលទៅក្នុងប្រធានបទ AI ដែលត្រូវបានពិនិត្យយ៉ាងច្បាស់លាស់មួយទៀតគឺ ទទួលខុសត្រូវ AI ឬការពិចារណារួមគ្នានៃការតម្រឹមនៃតម្លៃមនុស្ស និង AI ។

សញ្ញាណទូទៅគឺថាយើងចង់បាន AI ដែលគោរពតាមតម្លៃមនុស្សត្រឹមត្រូវ និងចង់បាន។ អ្នកខ្លះសំដៅទៅលើរឿងនេះ ទទួលខុសត្រូវ AI. អ្នកផ្សេងទៀតពិភាក្សាស្រដៀងគ្នា AI ទទួលខុសត្រូវ, AI ដែលគួរឱ្យទុកចិត្តនិង ការតម្រឹម AIទាំងអស់នេះ ប៉ះលើគោលការណ៍គ្រឹះតែមួយ។ សម្រាប់ការពិភាក្សារបស់ខ្ញុំលើបញ្ហាសំខាន់ៗទាំងនេះ សូមមើល តំណភ្ជាប់នៅទីនេះ និង តំណភ្ជាប់នៅទីនេះ, គ្រាន់តែឈ្មោះមួយចំនួន។

តើ​យើង​អាច​យក AI ឱ្យ​ស្រប​តាម​តម្លៃ​មនុស្ស​បាន​ដោយ​របៀប​ណា?

ដូចដែលបានស្នើពីមុន យើងនឹងសង្ឃឹមថាអ្នកអភិវឌ្ឍន៍ AI នឹងយល់ដឹងពីការអភិវឌ្ឍន៍ AI ដែលទទួលបាននូវទំនួលខុសត្រូវ AI ។ ជា​ការ​សោកស្ដាយ ពួកគេ​ប្រហែល​ជា​មិន​បាន​ដូច​ជា​ហេតុផល​ដែល​បាន​បកស្រាយ​មុន​នេះ​ទេ។ លើសពីនេះ ពួកគេអាចនឹងព្យាយាមធ្វើដូច្នេះ ប៉ុន្តែទោះជាយ៉ាងណា AI បញ្ចប់ការកែតម្រូវដោយខ្លួនឯង ហួសពីអាណាចក្រនៃអាកប្បកិរិយាប្រកបដោយសីលធម៌ ឬអាចចូលទៅក្នុងទឹកដែលខុសច្បាប់។

ជាការប្រសើរណាស់ យើងត្រូវពិចារណាអ្នកត្រួតពិនិត្យពីរដងដែលមានប្រយោជន៍របស់យើងជាមធ្យោបាយមួយដើម្បីទប់ស្កាត់ហានិភ័យ និងការប៉ះពាល់ទាំងនេះ។ ការប្រើប្រាស់ឧបករណ៍ត្រួតពិនិត្យទ្វេដងនៃក្រមសីលធម៌ AI ដែលរៀបចំបានល្អអាចជួយជាសម្ភារៈក្នុងការតម្រឹម AI ជាមួយនឹងតម្លៃរបស់មនុស្ស។ ស្រដៀងគ្នានេះដែរ ការប្រើប្រាស់ឧបករណ៍ត្រួតពិនិត្យពីរដងផ្លូវច្បាប់ AI ដែលមានការរៀបចំយ៉ាងល្អ អាចជួយយ៉ាងសំខាន់ក្នុងការតម្រឹម AI ជាមួយនឹងតម្លៃរបស់មនុស្ស។

ដូច្នេះ មធ្យោបាយដ៏សំខាន់ និងមិនទាន់ល្បីក្នុងការស្វែងរកដើម្បីទៅដល់ការទទួលខុសត្រូវ AI, Trustworthy AI, Accountable AI, AI Alignment ជាដើម នឹងពាក់ព័ន្ធនឹងការប្រើប្រាស់ឧបករណ៍ត្រួតពិនិត្យពីរដងនៃ AI ដូចជា AI Ethics double-checker និង AI Legal checker ពីរដងដែលនឹងធ្វើការដោយមិននឿយហត់ជាការត្រួតពិនិត្យពីរដងលើ AI ដែលពួកគេត្រូវបានបង្កប់នៅក្នុង។

នៅក្នុងការពិភាក្សានេះ ខ្ញុំចង់និយាយលម្អិតបន្តិចអំពីធម្មជាតិ និងការសាងសង់របស់ AI Legal checkerers ដែលអាចបញ្ចូលទៅក្នុង AI ។ ដើម្បីធ្វើដូច្នេះ វាអាចមានប្រយោជន៍ក្នុងការចែករំលែកជាមួយអ្នកនូវផ្ទៃខាងក្រោយបន្ថែមមួយចំនួនលើប្រធានបទទាំងមូលនៃ AI និងច្បាប់.

សម្រាប់ការពិនិត្យគ្មានន័យអំពីរបៀបដែល AI និងច្បាប់កំពុងលាយឡំគ្នា សូមមើលការពិភាក្សារបស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ. នៅក្នុងការក្រឡេកមើលដ៏ឆ្លាតវៃរបស់ខ្ញុំ AI និងច្បាប់ ការភ្ជាប់គ្នា ខ្ញុំផ្តល់នូវការយល់ឃើញដ៏ត្រង់នេះនៃវិធីសំខាន់ពីរដើម្បីទាក់ទងគ្នារវាង AI និងច្បាប់៖

  • (1) ច្បាប់អនុវត្តចំពោះ AI៖ ការបង្កើត ការអនុម័ត និងការអនុវត្តច្បាប់ដែលត្រូវបានអនុវត្តចំពោះបទប្បញ្ញត្តិ ឬការគ្រប់គ្រងនៃបញ្ញាសិប្បនិមិត្តនៅក្នុងសង្គមរបស់យើង
  • (2) AI-applied-to-Law: បច្ចេកវិទ្យា Artificial Intelligence បានបង្កើត និងអនុវត្តទៅក្នុងច្បាប់ រួមទាំង AI-based Legal Reasoning (AILR) ដែលបញ្ចូលទៅក្នុងកម្មវិធីបច្ចេកវិទ្យាខ្ពស់ LegalTech ដើម្បីធ្វើការងារមេធាវីដោយស្វ័យភាព ឬពាក់កណ្តាលស្វ័យភាព។

ទស្សនៈដំបូងដែលបានរាយបញ្ជីរួមមានការពិចារណាអំពីរបៀបដែលច្បាប់ដែលមានស្រាប់ និងថ្មីនឹងគ្រប់គ្រង AI ។ ទស្សនៈទីពីរដែលបានរាយបញ្ជីទាក់ទងនឹងការអនុវត្ត AI ទៅនឹងច្បាប់។

ប្រភេទចុងក្រោយនេះជាធម្មតាពាក់ព័ន្ធនឹងការប្រើប្រាស់ AI-based Legal Reasoning (AILR) នៅក្នុងឧបករណ៍អនឡាញជាច្រើនដែលប្រើដោយមេធាវី។ ឧទាហរណ៍ AI អាចជាផ្នែកនៃកញ្ចប់ Contract Life Cycle Management (CLM) ដែលជួយមេធាវីដោយកំណត់អត្តសញ្ញាណភាសាកិច្ចសន្យាដែលនឹងមានប្រយោជន៍សម្រាប់ការព្រាងកិច្ចសន្យាថ្មី ឬអាចរកឃើញកិច្ចសន្យាដែលមានភាសាដែលគួរឱ្យចង់បានស្របច្បាប់ ដែលអនុញ្ញាតឱ្យមានកំហុស ឬចន្លោះប្រហោងផ្លូវច្បាប់។ (សម្រាប់ការក្រឡេកមើលរបស់ខ្ញុំនៅអ្វីដែលគេហៅថា "ក្លិនច្បាប់" ដែលអាចយល់បានដោយ AI សូមមើល តំណភ្ជាប់នៅទីនេះ).

យើង​នឹង​ជៀស​មិន​ផុត​ពី​ការ​អនុវត្ត​ AI ចំពោះ​ច្បាប់​ដែល​អាច​ប្រើ​បាន​ដោយ​សាធារណជន​ទូទៅ ហើយ​ដែល​មិន​តម្រូវ​ឱ្យ​មាន​មេធាវី​ដើម្បី​ចូល​រួម។ ឥឡូវនេះ ជាលទ្ធផលនៃការរឹតបន្តឹងផ្សេងៗ រួមទាំង UPL (ការអនុវត្តច្បាប់ដែលគ្មានការអនុញ្ញាត) ដែលធ្វើឱ្យកម្មវិធីប្រឹក្សាផ្នែកច្បាប់ដែលមានមូលដ្ឋានលើ AI គឺជាបញ្ហាដ៏ស្មុគស្មាញ និងចម្រូងចម្រាស សូមមើលការពិភាក្សារបស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ.

ខ្ញុំបានលើកយកការណែនាំអំពី AI & Law ដើម្បីចង្អុលបង្ហាញថាការប្រើប្រាស់ឧបករណ៍មួយផ្សេងទៀតនៃ AI ដែលបានអនុវត្តចំពោះច្បាប់គឺដើម្បីបង្កើត AI Legal double-checkers ។

មែនហើយ ភាពប៉ិនប្រសប់ផ្នែកបច្ចេកវិទ្យាដូចគ្នាដែលពាក់ព័ន្ធនឹងការអនុវត្តន៍ AI ទៅនឹងច្បាប់គឺអាចបំពេញកាតព្វកិច្ចពីរដងដោយប្រើ AI សម្រាប់បម្រើជាអ្នកត្រួតពិនិត្យទ្វេដង AI ដែលត្រូវបានបង្កប់ ឬដាក់បញ្ចូលទៅក្នុងច្បាប់។ AI Legal double-checker គឺជាធាតុផ្សំដែលត្រូវតែឆ្លងកាត់ផ្នែកច្បាប់។ នៅពេលដែលកម្មវិធី AI ដែលនៅសេសសល់កំពុងធ្វើសកម្មភាពផ្សេងៗ អ្នកត្រួតពិនិត្យពីរដងផ្លូវច្បាប់ AI កំពុងធ្វើការវាស់វែងថាតើកម្មវិធី AI ធ្វើដូច្នេះដោយស្របច្បាប់ និងក្នុងដែនកំណត់ស្របច្បាប់ដែរឬទេ។

សមាសធាតុអ្នកត្រួតពិនិត្យពីរដងផ្នែកច្បាប់របស់ AI មិនចាំបាច់គ្របដណ្តប់ពេញលេញនៃអ្វីគ្រប់យ៉ាងដែលត្រូវដឹងអំពីច្បាប់នោះទេ។ អាស្រ័យលើលក្ខណៈនៃកម្មវិធី AI ទាក់ទងនឹងគោលបំណង និងសកម្មភាពរបស់ AI ទាំងមូល អ្នកត្រួតពិនិត្យពីរដងផ្នែកច្បាប់របស់ AI អាចមានលក្ខណៈតូចចង្អៀតជាងនៅក្នុងលក្ខខណ្ឌនៃជំនាញច្បាប់ដែលវាមាន។

ខ្ញុំ​បាន​កំណត់​ក្របខណ្ឌ​ដែល​មាន​ប្រយោជន៍​សម្រាប់​ការ​បង្ហាញ​ពី​របៀប​ដែល AI ក្នុង​ដែន​ច្បាប់​មាន​ជួរ​ឆ្លងកាត់​ស៊េរី​នៃ​សមត្ថភាព​ស្វយ័ត​ដែល​គេ​ស្គាល់​ថា​ជា Levels of Autonomy (LoA)។ សម្រាប់ទិដ្ឋភាពទូទៅសូមមើលរបស់ខ្ញុំ ទស្សនាវដ្តី Forbes ការបង្ហោះជួរឈរនៃថ្ងៃទី 21 ខែវិច្ឆិកាឆ្នាំ 2022 "ករណីដ៏ទូលំទូលាយគ្មានន័យសម្រាប់ហេតុផលដែលមេធាវីត្រូវដឹងអំពី AI និងច្បាប់" នៅ តំណភ្ជាប់នៅទីនេះហើយសម្រាប់ការពិពណ៌នាបច្ចេកទេសលម្អិត សូមមើលអត្ថបទស្រាវជ្រាវស៊ីជម្រៅរបស់ខ្ញុំនៅក្នុង ទិនានុប្បវត្តិច្បាប់គណនារបស់ MIT ថ្ងៃទី 7 ខែធ្នូ ឆ្នាំ 2021 សូមមើល តំណភ្ជាប់នៅទីនេះ.

ក្របខ័ណ្ឌនេះពន្យល់ពីកម្រិតប្រាំនៃ AI ដែលត្រូវបានប្រើនៅក្នុងការខិតខំប្រឹងប្រែងផ្នែកច្បាប់៖

  • កម្រិត 0៖ គ្មានស្វ័យប្រវត្តិកម្មសម្រាប់ការងារផ្លូវច្បាប់ដែលមានមូលដ្ឋានលើ AI
  • កម្រិតទី 1៖ ស្វ័យប្រវត្តិកម្មជំនួយសាមញ្ញសម្រាប់ការងារផ្លូវច្បាប់ដែលមានមូលដ្ឋានលើ AI
  • កម្រិតទី 2៖ ស្វ័យប្រវត្តិកម្មជំនួយកម្រិតខ្ពស់សម្រាប់ការងារផ្លូវច្បាប់ដែលមានមូលដ្ឋានលើ AI
  • កម្រិតទី 3៖ ស្វ័យប្រវត្តិកម្មពាក់កណ្តាលស្វយ័តសម្រាប់ការងារផ្លូវច្បាប់ដែលមានមូលដ្ឋានលើ AI
  • កម្រិតទី 4៖ ដែនស្វ័យភាពសម្រាប់ការងារផ្នែកច្បាប់ដែលមានមូលដ្ឋានលើ AI
  • កម្រិតទី 5៖ មានស្វ័យភាពពេញលេញសម្រាប់ការងារផ្នែកច្បាប់ដែលមានមូលដ្ឋានលើ AI

ខ្ញុំនឹងពណ៌នាដោយសង្ខេបនៅទីនេះ។

កម្រិត 0 ត្រូវបានចាត់ទុកថាគ្មានកម្រិតស្វ័យប្រវត្តិកម្ម។ ការវែកញែកផ្នែកច្បាប់ និងកិច្ចការច្បាប់ត្រូវបានអនុវត្តតាមវិធីសាស្រ្តដោយដៃ ហើយកើតឡើងជាចម្បងតាមរយៈវិធីសាស្រ្តផ្អែកលើក្រដាស។

កម្រិតទី 1 មានស្វ័យប្រវត្តិកម្មជំនួយសាមញ្ញសម្រាប់ហេតុផលផ្លូវច្បាប់ AI ។ ឧទាហរណ៍នៃប្រភេទនេះនឹងរួមបញ្ចូលការប្រើប្រាស់ការដំណើរការពាក្យដែលផ្អែកលើកុំព្យូទ័រប្រចាំថ្ងៃ ការប្រើប្រាស់សៀវភៅបញ្ជីដែលមានមូលដ្ឋានលើកុំព្យូទ័រប្រចាំថ្ងៃ ការចូលប្រើឯកសារផ្លូវច្បាប់តាមអ៊ីនធឺណិតដែលត្រូវបានរក្សាទុក និងទាញយកតាមអេឡិចត្រូនិកជាដើម។

កម្រិតទី 2 មានស្វ័យប្រវត្តិកម្មជំនួយកម្រិតខ្ពស់សម្រាប់ហេតុផលផ្លូវច្បាប់ AI ។ ឧទាហរណ៍នៃប្រភេទនេះនឹងរួមបញ្ចូលការប្រើប្រាស់ការដំណើរការភាសាធម្មជាតិមូលដ្ឋានតាមបែបសំណួរ (NLP) ធាតុសាមញ្ញនៃ Machine Learning (ML) ឧបករណ៍វិភាគស្ថិតិសម្រាប់ការទស្សន៍ទាយករណីផ្លូវច្បាប់។ល។

កម្រិតទី 3 មានស្វ័យប្រវត្តិកម្មពាក់កណ្តាលស្វយ័តសម្រាប់ហេតុផលផ្លូវច្បាប់ AI ។ ឧទាហរណ៍នៃប្រភេទនេះនឹងរួមបញ្ចូលការប្រើប្រាស់ប្រព័ន្ធផ្អែកលើចំណេះដឹងកម្រិតខ្ពស់ (KBS) សម្រាប់ហេតុផលផ្លូវច្បាប់ ការប្រើប្រាស់ Machine Learning និង Deep Learning (ML/DL) សម្រាប់ហេតុផលផ្លូវច្បាប់ NLP កម្រិតខ្ពស់ជាដើម។

កម្រិតទី 4 មានប្រព័ន្ធដែលមានមូលដ្ឋានលើកុំព្យូទ័រស្វ័យភាពដែនសម្រាប់ហេតុផលផ្លូវច្បាប់ AI ។ កម្រិតនេះប្រើឡើងវិញនូវគោលគំនិតនៃ Operational Design Domains (ODDs) ដូចដែលបានប្រើសម្រាប់រថយន្តដែលបើកបរដោយខ្លួនឯង ប៉ុន្តែដូចដែលបានអនុវត្តចំពោះដែនស្របច្បាប់។ ដែនច្បាប់អាចត្រូវបានចាត់ថ្នាក់តាមផ្នែកមុខងារដូចជា ច្បាប់គ្រួសារ ច្បាប់អចលនទ្រព្យ ច្បាប់ក្ស័យធន ច្បាប់បរិស្ថាន ច្បាប់ពន្ធជាដើម។

កម្រិតទី 5 មានប្រព័ន្ធកុំព្យូទ័រដែលមានស្វ័យភាពពេញលេញសម្រាប់ហេតុផលផ្លូវច្បាប់ AI ។ ក្នុងន័យមួយ កម្រិតទី 5 គឺជាកំពូលនៃកម្រិតទី 4 នៅក្នុងលក្ខខណ្ឌនៃការគ្របដណ្តប់លើដែនស្របច្បាប់ដែលអាចធ្វើបានទាំងអស់។ សូម​ដឹង​ថា​នេះ​ជា​លំដាប់​ខ្ពស់​ណាស់។

អ្នកអាចគិតគូរពីកម្រិតស្វ័យភាពទាំងនេះ ស្របជាមួយនឹងការប្រើប្រាស់ស្រដៀងគ្នា នៅពេលពិភាក្សាអំពីរថយន្តបើកបរដោយខ្លួនឯង និងរថយន្តស្វយ័ត (ផ្អែកលើស្តង់ដារ SAE ផ្លូវការផងដែរ សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ) យើង​មិន​ទាន់​មាន​រថយន្ត SAE Level 5 ដែល​បើកបរ​ដោយ​ខ្លួនឯង​នៅឡើយ​ទេ។ យើង​កំពុង​ឈាន​ចូល​ទៅ​ក្នុង​រថយន្ត​បើកបរ​ស្វ័យ​ប្រវត្តិ SAE កម្រិត 4។ រថយន្តធម្មតាភាគច្រើនគឺនៅ SAE Level 2 ខណៈពេលដែលរថយន្តថ្មីមួយចំនួនកំពុងចូលទៅក្នុង SAE Level 3។

នៅក្នុងដែនស្របច្បាប់ យើងមិនទាន់មានកម្រិត 5 AILR នៅឡើយទេ។ យើងកំពុងឈានដល់កម្រិតទី 4 មួយចំនួន ទោះបីជានៅក្នុង ODDs តូចចង្អៀតខ្លាំងក៏ដោយ។ កម្រិតទី 3 កំពុងចាប់ផ្តើមមើលឃើញពន្លឺនៃថ្ងៃ ខណៈពេលដែលផ្នែកសំខាន់នៃ AILR ថ្ងៃនេះគឺនៅកម្រិត 2 ជាចម្បង។

អត្ថបទស្រាវជ្រាវថ្មីៗអំពី AI ដែលត្រូវបានអនុវត្តចំពោះច្បាប់នេះ បានបង្ហាញឱ្យឃើញការវាយអក្សរដែលគេស្គាល់ថាជា ច្បាប់ជូនដំណឹងអំពីក្រម។ អ្នកស្រាវជ្រាវ​បញ្ជាក់​យ៉ាង​ដូច្នេះ​ថា​៖«​គោលដៅ​ចម្បង​មួយ​របស់​ស ច្បាប់ជូនដំណឹងអំពីក្រម របៀបវារៈគឺបង្រៀន AI ឱ្យធ្វើតាមស្មារតីនៃច្បាប់” (John J. Nay, “Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Human”, ទិនានុប្បវត្តិ Northwestern នៃបច្ចេកវិទ្យា និងកម្មសិទ្ធិបញ្ញា, លេខ 20, នាពេលខាងមុខ) ។ មានការពិចារណាសំខាន់ៗមួយចំនួនដែល ស ច្បាប់ជូនដំណឹងអំពីក្រម Mantra បង្ហាញឡើង ហើយខ្ញុំនឹងណែនាំអ្នកតាមរយៈសិក្ខាបទសំខាន់ៗមួយចំនួន។

មុននឹងចូលទៅក្នុងប្រធានបទនេះ ខ្ញុំចង់ដាក់មូលដ្ឋានគ្រឹះសំខាន់ៗមួយចំនួនអំពី AI និងជាពិសេស AI Ethics និង AI Law ដើម្បីធ្វើដូច្នេះដើម្បីប្រាកដថាការពិភាក្សានឹងមានលក្ខណៈសមស្របតាមបរិបទ។

ការកើនឡើងនៃការយល់ដឹងអំពីក្រមសីលធម៌ AI និងច្បាប់ AI ផងដែរ។

យុគសម័យថ្មីនៃ AI ត្រូវបានគេមើលឃើញដំបូងថាជា អាយអេសដើម្បីភាពល្អមានន័យថា យើងអាចប្រើប្រាស់ AI សម្រាប់ភាពប្រសើរឡើងនៃមនុស្សជាតិ។ នៅលើកែងជើងរបស់ អាយអេសដើម្បីភាពល្អ មក​ការ​ដឹង​ថា​យើង​ត្រូវ​បាន​ជ្រមុជ​ក្នុង​ផង​ដែរ​ អាយអេសសម្រាប់អាក្រក់. នេះរាប់បញ្ចូលទាំង AI ដែលត្រូវបានបង្កើត ឬកែប្រែខ្លួនឯងទៅជាការរើសអើង និងធ្វើការជ្រើសរើសតាមការគណនាដែលបង្កប់នូវភាពលំអៀងដែលមិនសមហេតុផល។ ពេលខ្លះ AI ត្រូវបានបង្កើតឡើងតាមរបៀបនោះ ខណៈពេលដែលក្នុងករណីផ្សេងទៀត វាចូលទៅក្នុងទឹកដីដែលមិនឆ្ពោះទៅរកនោះ។

ខ្ញុំ​ចង់​ធ្វើ​ឱ្យ​ប្រាកដ​ជា​ច្រើន​ថា​យើង​នៅ​លើ​ទំព័រ​តែ​មួយ​អំពី​លក្ខណៈ​នៃ AI សព្វថ្ងៃ។

មិនមាន AI ណាមួយដែលប្រកបដោយមនោសញ្ចេតនាទេ។ យើងមិនមាននេះទេ។ យើង​មិន​ដឹង​ថា​តើ​ AI ​អាច​នឹង​កើត​ឡើង​ឬ​អត់​នោះ​ទេ។ គ្មាននរណាម្នាក់អាចទស្សន៍ទាយបានច្បាស់ថា តើយើងនឹងសម្រេចបាន AI អារម្មណ៍ ឬថាតើ AI អារម្មណ៍នឹងកើតឡើងដោយអព្ភូតហេតុដោយឯកឯងក្នុងទម្រង់នៃ supernova នៃការយល់ដឹងតាមការគណនា (ជាទូទៅគេហៅថាឯកវចនៈ សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ).

ប្រភេទនៃ AI ដែលខ្ញុំកំពុងផ្តោតលើមាន AI ដែលមិនមានអារម្មណ៍ដែលយើងមានសព្វថ្ងៃនេះ។ ប្រសិនបើយើងចង់ស្មានទុកជាមុនអំពី AI ប្រកបដោយការយល់ឃើញ ការពិភាក្សានេះអាចទៅក្នុងទិសដៅខុសគ្នាខ្លាំង។ AI ដែល​មាន​អារម្មណ៍​ថា​នឹង​មាន​គុណភាព​មនុស្ស។ អ្នកនឹងត្រូវពិចារណាថា AI អារម្មណ៍គឺស្មើនឹងការយល់ដឹងរបស់មនុស្ស។ ជាងនេះទៅទៀត ដោយសារមានការស្មានខ្លះៗថា យើងប្រហែលជាមាន AI ដ៏វៃឆ្លាត ដែលអាចសន្និដ្ឋានបានថា AI បែបនេះអាចឆ្លាតជាងមនុស្សទៅទៀត (សម្រាប់ការរុករករបស់ខ្ញុំនូវ AI ដ៏ឆ្លាតវៃជាលទ្ធភាព សូមមើល ការគ្របដណ្តប់នៅទីនេះ).

ខ្ញុំ​សូម​ណែនាំ​យ៉ាង​មុតមាំ​ថា​យើង​រក្សា​អ្វីៗ​នៅ​លើ​ផែនដី​ហើយ​ពិចារណា​អំពី​ការ​គណនា​មិន​គិត​ពី AI នាពេលបច្ចុប្បន្ននេះ។

ត្រូវដឹងថា AI នាពេលបច្ចុប្បន្ននេះ មិនអាច "គិត" តាមរបៀបណាមួយបានដូចការគិតរបស់មនុស្សនោះទេ។ នៅពេលអ្នកប្រាស្រ័យទាក់ទងជាមួយ Alexa ឬ Siri សមត្ថភាពសន្ទនាអាចហាក់ដូចជាស្រដៀងនឹងសមត្ថភាពរបស់មនុស្ស ប៉ុន្តែការពិតគឺថាវាមានលក្ខណៈគណនា និងខ្វះការយល់ដឹងរបស់មនុស្ស។ យុគសម័យចុងក្រោយបង្អស់របស់ AI បានប្រើប្រាស់យ៉ាងទូលំទូលាយនូវ Machine Learning (ML) និង Deep Learning (DL) ដែលមានឥទ្ធិពលលើការផ្គូផ្គងលំនាំគណនា។ នេះបាននាំឱ្យមានប្រព័ន្ធ AI ដែលមានរូបរាងដូចមនុស្ស។ ទន្ទឹមនឹងនេះដែរ សព្វថ្ងៃនេះមិនមាន AI ណាមួយដែលមានលក្ខណៈសមហេតុសមផលទេ ហើយក៏មិនមានការងឿងឆ្ងល់នៃការយល់ដឹងនៃការគិតដ៏រឹងមាំរបស់មនុស្សដែរ។

សូមប្រយ័ត្នចំពោះ AI នាពេលបច្ចុប្បន្ននេះ។

ML/DL គឺជាទម្រង់នៃការផ្គូផ្គងលំនាំគណនា។ វិធីសាស្រ្តធម្មតាគឺអ្នកប្រមូលផ្តុំទិន្នន័យអំពីកិច្ចការធ្វើការសម្រេចចិត្ត។ អ្នកបញ្ចូលទិន្នន័យទៅក្នុងម៉ូដែលកុំព្យូទ័រ ML/DL ។ គំរូទាំងនោះស្វែងរកលំនាំគណិតវិទ្យា។ បន្ទាប់ពីស្វែងរកគំរូបែបនេះ ប្រសិនបើរកឃើញនោះ ប្រព័ន្ធ AI នឹងប្រើលំនាំទាំងនោះនៅពេលជួបទិន្នន័យថ្មី។ នៅពេលបង្ហាញទិន្នន័យថ្មី គំរូដែលផ្អែកលើ "ទិន្នន័យចាស់" ឬទិន្នន័យប្រវត្តិសាស្រ្តត្រូវបានអនុវត្តដើម្បីបង្ហាញការសម្រេចចិត្តបច្ចុប្បន្ន។

ខ្ញុំ​គិត​ថា​អ្នក​អាច​ទាយ​ថា​តើ​នេះ​កំពុង​ទៅ​ណា​។ ប្រសិនបើ​មនុស្ស​ដែល​បាន​បង្កើត​គំរូ​តាម​ការ​សម្រេច​ចិត្ត​បាន​រួម​បញ្ចូល​ការ​លំអៀង​ដែល​មិន​ឆ្អែតឆ្អន់ នោះ​ការ​ខុសឆ្គង​គឺ​ថា​ទិន្នន័យ​បាន​ឆ្លុះ​បញ្ចាំង​ពី​ចំណុច​នេះ​តាម​វិធី​ស្រាលៗ ប៉ុន្តែ​សំខាន់។ ការ​ផ្គូផ្គង​គំរូ​ការ​សិក្សា​តាម​ម៉ាស៊ីន ឬ​ការ​រៀន​ជ្រៅ​នឹង​ព្យាយាម​ធ្វើ​ត្រាប់តាម​ទិន្នន័យ​តាម​គណិតវិទ្យា។ មិន​មាន​ភាព​ដូច​គ្នា​នៃ​សុភវិនិច្ឆ័យ ឬ​ទិដ្ឋភាព​មនោសញ្ចេតនា​ផ្សេង​ទៀត​នៃ​ការ​បង្កើត​គំរូ​ដែល​បង្កើត​ដោយ AI ក្នុង​មួយ។

ជាងនេះទៅទៀត អ្នកអភិវឌ្ឍន៍ AI ប្រហែលជាមិនដឹងពីអ្វីដែលកំពុងកើតឡើងនោះទេ។ គណិតវិទ្យា arcane នៅក្នុង ML/DL អាចធ្វើឱ្យវាពិបាកក្នុងការបំបាត់ភាពលំអៀងដែលលាក់នៅពេលនេះ។ អ្នកនឹងសង្ឃឹមយ៉ាងត្រឹមត្រូវ ហើយរំពឹងថាអ្នកអភិវឌ្ឍន៍ AI នឹងសាកល្បងសម្រាប់ភាពលំអៀងដែលអាចកប់បាន ទោះបីជាវាពិបាកជាងវាក៏ដោយ។ ឱកាសដ៏រឹងមាំមួយមានដែលថា ទោះបីជាមានការសាកល្បងយ៉ាងទូលំទូលាយថានឹងមានភាពលំអៀងនៅតែបង្កប់នៅក្នុងគំរូដែលត្រូវគ្នានឹងគំរូនៃ ML/DL ក៏ដោយ។

អ្នក​អាច​ប្រើ​សុភាសិត​ដ៏​ល្បី​ឬ​មិន​ល្អ​ខ្លះ​នៃ​ការ​ចោល​សំរាម​ក្នុង​ធុង​សំរាម។ រឿងនោះគឺថា នេះគឺស្រដៀងទៅនឹងភាពលំអៀងដែលបញ្ចូលទៅក្នុង insidiously ដូចជាភាពលំអៀងដែលលិចចូលទៅក្នុង AI ។ ក្បួនដោះស្រាយការសម្រេចចិត្ត (ADM) នៃ AI axiomatically ក្លាយជាបន្ទុកដោយភាពមិនស្មើគ្នា។

មិនល្អ។

ទាំងអស់នេះមានផលប៉ះពាល់យ៉ាងសំខាន់ AI Ethics និងផ្តល់នូវបង្អួចងាយស្រួលចូលទៅក្នុងមេរៀនដែលបានរៀន (សូម្បីតែមុនពេលមេរៀនទាំងអស់កើតឡើង) នៅពេលនិយាយអំពីការព្យាយាមបង្កើតច្បាប់ AI ។

ក្រៅពីការប្រើប្រាស់ច្បាប់សីលធម៌ AI ជាទូទៅ មានសំណួរដែលត្រូវគ្នាថាតើយើងគួរតែមានច្បាប់ដើម្បីគ្រប់គ្រងការប្រើប្រាស់ផ្សេងៗនៃ AI ដែរឬទេ។ ច្បាប់ថ្មីកំពុងត្រូវបានដាក់ពង្រាយនៅកម្រិតសហព័ន្ធ រដ្ឋ និងមូលដ្ឋាន ដែលទាក់ទងនឹងជួរ និងលក្ខណៈនៃរបៀបដែល AI គួរតែត្រូវបានបង្កើត។ ការ​ខិតខំ​ធ្វើ​សេចក្តី​ព្រាង និង​អនុម័ត​ច្បាប់​បែប​នេះ​ជា​បណ្តើរៗ។ ក្រមសីលធម៌ AI ដើរតួជាគម្លាតដែលត្រូវបានពិចារណា យ៉ាងហោចណាស់ ហើយស្ទើរតែនឹងប្រាកដក្នុងកម្រិតខ្លះត្រូវបានដាក់បញ្ចូលទៅក្នុងច្បាប់ថ្មីទាំងនោះ។

ត្រូវ​ដឹង​ថា​មាន​អ្នក​ខ្លះ​ប្រកែក​យ៉ាង​ម៉ឺងម៉ាត់​ថា​យើង​មិន​ត្រូវ​ការ​ច្បាប់​ថ្មី​ដែល​គ្រប​ដណ្ដប់​លើ AI ហើយ​ថា​ច្បាប់​ដែល​មាន​ស្រាប់​របស់​យើង​គឺ​គ្រប់គ្រាន់​ហើយ។ ពួកគេបានព្រមានថា ប្រសិនបើយើងអនុវត្តច្បាប់ AI មួយចំនួននេះ យើងនឹងសម្លាប់សត្វពពែមាស ដោយកាត់បន្ថយភាពជឿនលឿននៃ AI ដែលផ្តល់អត្ថប្រយោជន៍យ៉ាងច្រើនដល់សង្គម។

នៅក្នុងជួរមុន ខ្ញុំបានរៀបរាប់អំពីកិច្ចខិតខំប្រឹងប្រែងជាតិ និងអន្តរជាតិផ្សេងៗ ដើម្បីបង្កើត និងអនុម័តច្បាប់គ្រប់គ្រង AI សូមមើល តំណភ្ជាប់នៅទីនេះ, ឧទាហរណ៍។ ខ្ញុំក៏បានគ្របដណ្តប់លើគោលការណ៍ និងគោលការណ៍ណែនាំអំពីក្រមសីលធម៌ AI ជាច្រើនដែលប្រជាជាតិនានាបានកំណត់ និងអនុម័ត រួមទាំងឧទាហរណ៍ការខិតខំប្រឹងប្រែងរបស់អង្គការសហប្រជាជាតិដូចជា UNESCO កំណត់ក្រមសីលធម៌ AI ដែលប្រទេសជិត 200 បានអនុម័ត។ តំណភ្ជាប់នៅទីនេះ.

នេះគឺជាបញ្ជីគន្លឹះដ៏មានប្រយោជន៍នៃលក្ខណៈវិនិច្ឆ័យ AI សីលធម៌ ឬលក្ខណៈទាក់ទងនឹងប្រព័ន្ធ AI ដែលខ្ញុំបានស្វែងរកយ៉ាងជិតស្និទ្ធពីមុនមក៖

  • តម្លាភាព
  • យុត្តិធម៌ និងយុត្តិធម៌
  • ភាពមិនអាក្រក់
  • ការទទួលខុសត្រូវ
  • ភាពឯកជន
  • អត្ថប្រយោជន៍
  • សេរីភាព និងស្វ័យភាព
  • ការជឿទុកចិត្ត
  • និរន្តរភាព
  • សេចក្តីថ្លៃថ្នូរ
  • សាមគ្គីភាព

គោលការណ៍ក្រមសីលធម៌ AI ទាំងនោះត្រូវបានគេសន្មត់ថាប្រើប្រាស់ដោយស្មោះស្ម័គ្រដោយអ្នកអភិវឌ្ឍន៍ AI រួមជាមួយនឹងអ្នកដែលគ្រប់គ្រងកិច្ចខិតខំប្រឹងប្រែងអភិវឌ្ឍន៍ AI និងសូម្បីតែអ្នកដែលនៅទីបំផុតអនុវត្ត និងថែរក្សាប្រព័ន្ធ AI ។

អ្នកពាក់ព័ន្ធទាំងអស់នៅទូទាំងវដ្តជីវិត AI នៃការអភិវឌ្ឍន៍ និងការប្រើប្រាស់ត្រូវបានចាត់ទុកថាស្ថិតក្នុងវិសាលភាពនៃការគោរពតាមបទដ្ឋានដែលត្រូវបានបង្កើតឡើងនៃ Ethical AI ។ នេះគឺជាការគូសបញ្ជាក់ដ៏សំខាន់មួយចាប់តាំងពីការសន្មត់ធម្មតាគឺថា "មានតែអ្នកសរសេរកូដ" ឬអ្នកដែលកម្មវិធី AI ប៉ុណ្ណោះដែលត្រូវប្រកាន់ខ្ជាប់នូវគោលគំនិតសីលធម៌របស់ AI ។ ដូចដែលបានសង្កត់ធ្ងន់ពីមុនមក វាត្រូវការភូមិមួយដើម្បីរៀបចំ និងអនុវត្ត AI ហើយភូមិទាំងមូលត្រូវតែគោរព និងគោរពតាមសិក្ខាបទ AI ។

ថ្មីៗនេះខ្ញុំក៏បានពិនិត្យ វិក័យប័ត្រនៃសិទ្ធិ AI ដែលជាចំណងជើងផ្លូវការនៃឯកសារផ្លូវការរបស់រដ្ឋាភិបាលសហរដ្ឋអាមេរិកដែលមានចំណងជើងថា "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" ដែលជាលទ្ធផលនៃកិច្ចខិតខំប្រឹងប្រែងរយៈពេលមួយឆ្នាំដោយការិយាល័យគោលនយោបាយវិទ្យាសាស្ត្រ និងបច្ចេកវិទ្យា (OSTP ) OSTP គឺជាអង្គភាពសហព័ន្ធដែលបម្រើការផ្តល់ប្រឹក្សាដល់ប្រធានាធិបតីអាមេរិក និងការិយាល័យប្រតិបត្តិរបស់សហរដ្ឋអាមេរិកអំពីទិដ្ឋភាពបច្ចេកវិទ្យា វិទ្យាសាស្ត្រ និងវិស្វកម្មផ្សេងៗនៃសារៈសំខាន់ជាតិ។ ក្នុងន័យនេះ អ្នកអាចនិយាយបានថា Bill of Rights របស់ AI នេះគឺជាឯកសារដែលត្រូវបានអនុម័ត និងយល់ព្រមដោយសេតវិមានអាមេរិកដែលមានស្រាប់។

នៅក្នុង AI Bill of Rights មាន XNUMX ប្រភេទសំខាន់ៗដូចជា៖

  • ប្រព័ន្ធសុវត្ថិភាព និងមានប្រសិទ្ធភាព
  • ការការពារការរើសអើងជាក្បួន
  • ភាពឯកជនទិន្នន័យ
  • សេចក្តីជូនដំណឹង និងការពន្យល់
  • ជម្មើសជំនួសរបស់មនុស្ស ការពិចារណា និងការថយក្រោយ

ខ្ញុំបានពិនិត្យដោយប្រុងប្រយ័ត្ននូវសិក្ខាបទទាំងនោះ តំណភ្ជាប់នៅទីនេះ.

ឥឡូវនេះខ្ញុំបានដាក់មូលដ្ឋានគ្រឹះដ៏មានប្រយោជន៍លើប្រធានបទ AI Ethics និង AI Law ដែលពាក់ព័ន្ធទាំងនេះ ពួកយើងបានត្រៀមខ្លួនរួចជាស្រេចដើម្បីចូលទៅក្នុងប្រធានបទសំខាន់នៃ AI Legal-checkers និងអាណាចក្រនៃ ច្បាប់ជូនដំណឹងអំពីក្រម.

AI Legal Double-Checkers បង្កប់ក្នុង AI សម្រាប់ការតម្រឹមតម្លៃមនុស្ស

ពេលខ្លះខ្ញុំសំដៅទៅលើ AI អ្នកត្រួតពិនិត្យទ្វេដងផ្នែកច្បាប់ តាមរយៈអក្សរកាត់នៃ AI-LDC ។ នេះ​ជា​ការ​រំខាន​បន្តិច​សម្រាប់​អ្នក​ដែល​មិន​ស្គាល់​អក្សរកាត់។ ដូច្នេះហើយ ខ្ញុំនឹងមិនប្រើអក្សរកាត់ពិសេសនេះនៅក្នុងការពិភាក្សានេះទេ ប៉ុន្តែចង់រៀបរាប់វាជូនអ្នកជាបឋម។

ដើម្បីស្រាយនូវភាពស្មុគស្មាញមួយចំនួននៃ AI Legal double-checkers សូមដោះស្រាយចំណុចសំខាន់ៗទាំងនេះ៖

  • ការប្រើប្រាស់ AI Legal double-checkers ជាយន្តការតម្រឹមតម្លៃមនុស្ស AI
  • AI កាន់តែទូលំទូលាយនឹងតម្រូវឱ្យអ្នកត្រួតពិនិត្យពីរដងផ្លូវច្បាប់ AI រឹងមាំជាងមុន
  • AI Legal-checkers អនុវត្តច្បាប់ ហើយគួរឱ្យកត់សម្គាល់ថាមិនបង្កើតច្បាប់ (សន្មត)
  • តុល្យភាពល្អរវាង AI តំណាងផ្នែកច្បាប់នៃច្បាប់ជាក្បួនធៀបនឹងស្តង់ដារ
  • ទាមទារភស្តុតាងនៃ pudding នៅពេលដែលវាមកដល់ AI គោរពតាមច្បាប់

ដោយសារតែមានឧបសគ្គក្នុងលំហ ខ្ញុំនឹងលើកយកចំណុចទាំងប្រាំនេះសម្រាប់ពេលនេះ ទោះបីយ៉ាងណា សូមរង់ចាំតាមដានបន្ថែមទៀតនៅក្នុងជួររបស់ខ្ញុំ ដែលគ្របដណ្តប់លើការពិចារណាបន្ថែម និងគួរកត់សម្គាល់ស្មើៗគ្នាលើបញ្ហាដែលកំពុងវិវត្ត និងឆ្ពោះទៅមុខយ៉ាងឆាប់រហ័សទាំងនេះ។

ឥឡូវនេះ សូមភ្ជាប់ខ្សែក្រវាត់របស់អ្នក ហើយត្រៀមខ្លួនសម្រាប់ដំណើរដ៏រីករាយ។

  • ការប្រើប្រាស់ AI Legal double-checkers ជាយន្តការតម្រឹមតម្លៃមនុស្ស AI

មានវិធីជាច្រើនដើម្បីព្យាយាម និងសម្រេចបាននូវការតម្រឹមចុះសម្រុងគ្នារវាង AI និងតម្លៃរបស់មនុស្ស។

ដូចដែលបានរៀបរាប់ពីមុន យើងអាចផលិត និងផ្សព្វផ្សាយសិក្ខាបទក្រមសីលធម៌ AI និងស្វែងរកអ្នកអភិវឌ្ឍន៍ AI និងអ្នកដែលមានជំនាញ និងប្រតិបត្តិការ AI ដើម្បីគោរពតាមគន្លឺះទាំងនោះ។ ជាអកុសល នេះតែម្នាក់ឯងនឹងមិនធ្វើល្បិចនោះទេ។ អ្នក​មាន​អ្នក​រៀបចំ​មួយ​ចំនួន​ដែល​ជៀស​មិន​រួច​នឹង​មិន​ទទួល​បាន​សារ។ អ្នក​មាន​អ្នក​ចូល​រួម​មួយ​ចំនួន​ដែល​នឹង​បង្ហាញ​ពី​ក្រមសីលធម៌ AI និង​ព្យាយាម​គេច​ពី​គោលការណ៍​កំណត់​ដែល​មាន​លក្ខណៈ​ធូររលុង។ ល​ល។

ការប្រើប្រាស់វិធីសាស្រ្ត "ច្បាប់ទន់" ដែលរួមបញ្ចូលក្រមសីលធម៌ AI ត្រូវតែត្រូវបានផ្គូផ្គងស្ទើរតែមិនអាចកាត់ថ្លៃបានជាមួយនឹងមធ្យោបាយ "ច្បាប់រឹង" ដូចជាការអនុម័តច្បាប់ និងបទប្បញ្ញត្តិដែលនឹងបញ្ជូនសញ្ញាដ៏ខ្លាំងក្លាទៅកាន់អ្នកដែលបង្កើត ឬប្រើប្រាស់ AI ។ ដៃវែងនៃច្បាប់អាចនឹងមករកអ្នក ប្រសិនបើអ្នកមិនប្រើប្រាស់ AI ដោយយុត្តិធម៌។ សំឡេង​ទ្វារ​គុក​គាំង​អាច​ទាក់ទាញ​ចំណាប់​អារម្មណ៍​យ៉ាង​ខ្លាំង។

បញ្ហាធំមួយគឺថាពេលខ្លះទ្វារជង្រុកបានអនុញ្ញាតឱ្យសេះចេញហើយអំពី។ AI ដែលត្រូវបានដាក់ឱ្យដំណើរការនឹងមានសក្តានុពលផលិតនូវអំពើខុសច្បាប់គ្រប់បែបយ៉ាង ហើយបន្តធ្វើរហូតដល់មិនត្រឹមតែចាប់បានប៉ុណ្ណោះទេ ប៉ុន្តែក៏នៅពេលដែលការអនុវត្តច្បាប់មួយចំនួនឈានដល់ដំណាក់កាលចុងក្រោយដើម្បីរារាំងលំហូរនៃសកម្មភាពខុសច្បាប់។ ទាំងអស់នេះអាចចំណាយពេល។ ទន្ទឹមនឹងនេះដែរ មនុស្សកំពុងទទួលរងគ្រោះថ្នាក់ក្នុងទម្រង់មួយ ឬបែបផ្សេងទៀត។

ចូលទៅក្នុងវេទិកានេះមក AI Legal double-checker ។

តាមរយៈការរស់នៅក្នុងកម្មវិធី AI អ្នកត្រួតពិនិត្យទ្វេដងនៃច្បាប់ AI អាចរកឃើញភ្លាមៗនៅពេលដែល AI ហាក់ដូចជាកំពុងដំណើរការខុសនឹងច្បាប់។ អ្នកត្រួតពិនិត្យទ្វេដង AI Legal អាចនឹងបញ្ឈប់ AI នៅក្នុងផ្លូវរបស់វា។ ឬធាតុផ្សំនេះអាចជូនដំណឹងដល់មនុស្សអំពីសកម្មភាពខុសច្បាប់ដែលគេយល់ឃើញ ដោយធ្វើដូច្នេះបានទាន់ពេលវេលា ដែលអាចជំរុញឱ្យអ្នកត្រួតពិនិត្យចាត់វិធានការកែតម្រូវជាបន្ទាន់។ វាក៏មានការកត់ត្រាជាផ្លូវការដែលត្រូវបានចាត់ទុកថាជាធាតុផ្សំដែលអាចបង្កើតបាន ដោយផ្តល់នូវរូបរាងជាក់ស្តែងនៃផ្លូវសវនកម្មសម្រាប់គោលបំណងនៃការសរសេរកូដសកម្មភាពអវិជ្ជមានរបស់ AI ។

ច្បាប់របស់យើងត្រូវបានគេនិយាយថាជាទម្រង់នៃការប្រមូលផ្តុំពហុភ្នាក់ងារ ដែលច្បាប់ជៀសមិនរួចគឺជាល្បាយនៃអ្វីដែលសង្គមបានស្វែងរកដើម្បីដាក់ឱ្យមានតុល្យភាពក្នុងចំណោមទស្សនៈដែលទំនងជាផ្ទុយគ្នានៃអាកប្បកិរិយាសង្គមត្រឹមត្រូវ និងមិនត្រឹមត្រូវ។ ដូច្នេះ អ្នកត្រួតពិនិត្យពីរដងផ្លូវច្បាប់ AI ផ្អែកលើច្បាប់របស់យើងកំពុងបញ្ចូលល្បាយនោះ។

គួរកត់សម្គាល់ថា នេះគឺលើសពីការសរសេរកម្មវិធីបញ្ជីច្បាប់ច្បាស់លាស់។ ច្បាប់មានទំនោរអាចបត់បែនបាន និងខិតខំឆ្ពោះទៅរកស្តង់ដារត្រួតត្រា ជាជាងការបញ្ជាក់អំពីនាទីភាគច្រើននៃច្បាប់មីក្រូទស្សន៍។ ភាពស្មុគស្មាញមានច្រើន។

ត្រលប់ទៅឯកសារស្រាវជ្រាវដែលបានកត់សម្គាល់មុននេះ នេះជារបៀបដែលការពិចារណាទាំងនេះក៏អាចត្រូវបានមើលផងដែរ ទាក់ទងនឹងការស្វែងរកតម្រឹម AI៖ "ច្បាប់ ទស្សនវិជ្ជាអនុវត្តនៃការតម្រឹមភ្នាក់ងារចម្រុះ បំពេញនូវលក្ខណៈវិនិច្ឆ័យទាំងនេះដោយឡែក។ ការតម្រឹមគឺជាបញ្ហាព្រោះយើងមិនអាច អតីត ante បញ្ជាក់ច្បាប់ដែលដឹកនាំឥរិយាបថ AI ល្អយ៉ាងពេញលេញ និងជាក់ស្តែង។ ដូចគ្នានេះដែរ ភាគីនៃកិច្ចសន្យាផ្លូវច្បាប់មិនអាចទាយទុកជាមុននូវរាល់ភាពជាប់គាំងនៃទំនាក់ទំនងរបស់ពួកគេទេ ហើយអ្នកតាក់តែងច្បាប់មិនអាចទស្សន៍ទាយពីកាលៈទេសៈជាក់លាក់ដែលច្បាប់របស់ពួកគេនឹងត្រូវបានអនុវត្តនោះទេ។ នោះហើយជាមូលហេតុដែលច្បាប់ភាគច្រើនគឺជាក្រុមតារានិករនៃស្តង់ដារ” (ibid) ។

ការបញ្ចូលច្បាប់ទៅក្នុង AI Legal double-checker គឺមានការលំបាកច្រើនជាងអ្វីដែលអ្នកគិតដំបូង។

នៅពេលដែល AI រីកចម្រើន យើងនឹងត្រូវការបង្កើនភាពជឿនលឿនបែបនេះទៅតាមនោះ។ ប្រែថាអ្វីដែលល្អសម្រាប់ goose ក៏ល្អសម្រាប់ gander ផងដែរ។ ពួកយើងទាំងឡាយដែលធ្វើវឌ្ឍនភាពនៅក្នុង AI ដូចដែលបានអនុវត្តចំពោះច្បាប់កំពុងជំរុញស្រោមសំបុត្រលើ AI និងបង្កើតភាពជឿនលឿនថ្មីដោយមិនចេះអត់ធ្មត់ ដែលទីបំផុតអាចបញ្ចូលទៅក្នុងដំណើរការ AI ទាំងអស់គ្នា។

  • AI កាន់តែទូលំទូលាយនឹងតម្រូវឱ្យអ្នកត្រួតពិនិត្យពីរដងផ្លូវច្បាប់ AI រឹងមាំជាងមុន

ល្បែងឆ្មា និងកណ្តុរប្រឈមមុខនឹងប្រធានបទនេះ។

ឱកាសគឺថានៅពេលដែល AI កាន់តែមានភាពជឿនលឿនបន្ថែមទៀត សមាសធាតុត្រួតពិនិត្យទ្វេដងរបស់ AI ណាមួយនឹងស្វែងរកបញ្ហាកាន់តែពិបាក និងពិបាកដោះស្រាយ។ ជាឧទាហរណ៍ កម្មវិធី AI ដែលកំពុងត្រូវបានពិនិត្យ ប្រហែលជាបានរៀបចំវិធីថ្មីស្រឡាងដើម្បីលាក់សកម្មភាពខុសច្បាប់ដែល AI កំពុងធ្វើ។ បើទោះបីជា AI មិនទទួលយកផ្លូវមិនច្បាស់លាស់ក៏ដោយ ភាពស្មុគស្មាញទាំងមូលនៃ AI អាចជាឧបសគ្គដ៏គួរឱ្យភ័យខ្លាចសម្រាប់ការស្វែងរកការវាយតម្លៃអ្នកត្រួតពិនិត្យពីរដងផ្នែកច្បាប់របស់ AI ។

នេះជារបៀបដែលវាក្លាយជាមានសារៈសំខាន់ជាពិសេស។

ឧបមាថាអ្នកអភិវឌ្ឍន៍ AI ឬក្រុមហ៊ុនមួយចំនួនដែលប្រើប្រាស់ AI ប្រកាសថាមាន AI Legal double-checker ដែលត្រូវបានបញ្ចូលទៅក្នុងកម្មវិធីដែលមានមូលដ្ឋានលើ AI ។ វីឡា ពេលនេះពួកគេហាក់បីដូចជាបានលាងដៃអស់កង្វល់ទៀតហើយ។ អ្នកត្រួតពិនិត្យទ្វេដង AI Legal នឹងថែរក្សាអ្វីៗគ្រប់យ៉ាង។

មិន​ដូច្នេះ​ទេ។

អ្នកត្រួតពិនិត្យពីរដងផ្លូវច្បាប់ AI ប្រហែលជាមិនគ្រប់គ្រាន់សម្រាប់លក្ខណៈនៃកម្មវិធី AI ដែលពាក់ព័ន្ធនោះទេ។ វាក៏មានលទ្ធភាពផងដែរដែល AI Legal double-checker ក្លាយជាហួសសម័យ ប្រហែលជាមិនត្រូវបានធ្វើបច្ចុប្បន្នភាពជាមួយនឹងច្បាប់ចុងក្រោយបំផុតទាក់ទងនឹងកម្មវិធី AI នោះទេ។ ហេតុផលមួយចំនួនអាចត្រូវបានគេមើលឃើញថាហេតុអ្វីបានជាវត្តមានរបស់អ្នកត្រួតពិនិត្យពីរដងផ្នែកច្បាប់ AI នឹងមិនមែនជាគ្រាប់កាំភ្លើងទេ។

ពិចារណាលើការយល់ដឹងទាំងនេះដោយការស្រាវជ្រាវដែលបានលើកឡើងមុននេះ៖ "ក្នុងនាមជាទំនើបកម្មសម្រាប់ភាពជឿនលឿននៃ AI យើងអាចកំណត់របារកម្រិតខ្ពស់នៃសមត្ថភាពយល់ដឹងផ្នែកច្បាប់ដែលបានបង្ហាញឱ្យឃើញ។ ប្រសិនបើអ្នកអភិវឌ្ឍន៍អះអាងថាប្រព័ន្ធរបស់ពួកគេមានសមត្ថភាពជឿនលឿនលើកិច្ចការ ពួកគេគួរតែបង្ហាញពីការយល់ដឹងផ្នែកច្បាប់កម្រិតខ្ពស់ដែលត្រូវគ្នា និងសមត្ថភាពសមហេតុផលផ្នែកច្បាប់នៃ AI ដែលជាក់ស្តែងមិនមានការលំបាកអ្វីឡើយ នៅពេលពិចារណាលើភាពច្របូកច្របល់នៃច្បាប់ និងបទប្បញ្ញត្តិតាមពេលវេលា គំរូ និងយុត្តាធិការ។ ” (ibid) ។

  • AI Legal-checkers អនុវត្តច្បាប់ ហើយគួរឱ្យកត់សម្គាល់ថាមិនបង្កើតច្បាប់ (សន្មត)

ខ្ញុំ​ប្រាកដ​ថា​អ្នក​ខ្លះ​មាន​ការ​ខឹង​សម្បារ​ចំពោះ​គំនិត​ដែល​មាន​អ្នក​ត្រួត​ពិនិត្យ​ផ្លូវ​ច្បាប់ AI ទាំងនេះ។

ការព្រួយបារម្ភមួយដែលបញ្ចេញជាញឹកញាប់គឺថា យើងនឹងអនុញ្ញាតឱ្យ AI សម្រេចចិត្តច្បាប់របស់យើងសម្រាប់យើង។ ព្រះជាម្ចាស់ល្អ អ្នកប្រហែលជាកំពុងគិត គ្រឿងស្វ័យប្រវត្តិកម្មមួយចំនួននឹងវ៉ាដាច់មនុស្សជាតិ។ អ្នកត្រួតពិនិត្យពីរដងផ្នែកច្បាប់ដែលបង្កប់ដោយ AI ទាំងនោះនឹងក្លាយជាស្តេចលំនាំដើមនៃច្បាប់របស់យើង។ អ្វី​ដែល​គេ​ធ្វើ​នឹង​ក្លាយ​ទៅ​ជា​ច្បាប់។

មនុស្សនឹងត្រូវគ្រប់គ្រងដោយ AI ។

ហើយ AI Legal-checkers ទាំងនេះគឺជាជម្រាលរអិលដែលនាំយើងទៅទីនោះ។

ទឡ្ហីករណ៍មួយគឺថាការនិយាយបែបនេះគឺជាវត្ថុនៃទ្រឹស្តីសមគំនិត។ អ្នក​កំពុង​រៀបចំ​ខ្លួន​យ៉ាង​សាហាវ ហើយ​ធ្វើ​ឱ្យ​ខ្លួន​ឯង​មាន​ភាព​ច្របូកច្របល់។ ការពិតគឺថា AI Legal-checkers ទាំងនេះមិនមានការយល់ចិត្តទេ ពួកគេនឹងមិនកាន់កាប់ភពផែនដីនោះទេ ហើយការនិយាយបំផ្លើសអំពីហានិភ័យអត្ថិភាពរបស់ពួកគេគឺមានលក្ខណៈធម្មតា និងហួសកម្រិត។

សរុបមក ដោយនៅសេសសល់ជាមួយនឹងឥរិយាបថស្ងប់ស្ងាត់ និងហេតុផល យើងត្រូវចាំថា AI Legal-checkers ពីរដងបម្រើដើម្បីឆ្លុះបញ្ចាំងពីច្បាប់យ៉ាងត្រឹមត្រូវ មិនមែនដោយការរចនា និងដោយចៃដន្យនោះទេ បន្តទៅកាន់លំនាំដើមណាមួយទៅក្នុងវិស័យដែលគួរឱ្យគោរព។ ច្បាប់។ ដោយទុកចោលការបូកសរុបនៃប្រយោគ យើងពិតជាអាចយល់ស្របថាមានការព្រួយបារម្ភពិតប្រាកដ និងជាបន្ទាន់ដែលអ្នកត្រួតពិនិត្យពីរដងផ្នែកច្បាប់ AI អាចនឹងបញ្ចប់ការបកស្រាយខុសអំពីលក្ខណៈពិតនៃច្បាប់ដែលបានផ្តល់ឱ្យ។

នៅក្នុងវេន អ្នកអាចអះអាងថា ដូច្នេះច្បាប់ "បំភាន់" ជាក់លាក់នោះ នឹងត្រូវបង្កើតឡើងវិញជាចាំបាច់ ព្រោះវាលែងមានសញ្ញាត្រឹមត្រូវអំពីអ្វីដែលបានកំណត់ដោយច្បាប់ពិតប្រាកដ។ ខ្ញុំជឿជាក់ថា អ្នកអាចមើលឃើញដោយត្រង់ថា នេះជាការស្រពិចស្រពិល ប៉ុន្តែប្រាប់ពីការពិចារណា។ នៅពេលណាមួយ អ្នកត្រួតពិនិត្យពីរដងផ្នែកច្បាប់របស់ AI អាចផ្អែកលើមូលដ្ឋាននិម្មិតដោយបង្កើត ឬយើងនឹងនិយាយថា "បំភាន់" ច្បាប់ថ្មីដោយវិធីដែលសមាសធាតុ AI កំពុងបកស្រាយច្បាប់ដូចដែលបានបញ្ជាក់ដំបូង ឬបញ្ចូលក្នុង AI (សម្រាប់ការគ្របដណ្តប់របស់ខ្ញុំ នៃ AI ដែលគេហៅថា ភាពមមាញឹកសូមមើល តំណភ្ជាប់នៅទីនេះ).

ការយកចិត្តទុកដាក់លើបញ្ហានេះត្រូវតែអនុវត្តយ៉ាងតឹងរ៉ឹង។

លើប្រធានបទនេះ ការសិក្សាស្រាវជ្រាវដែលបានរៀបរាប់ខាងលើផ្តល់នូវគំនិតស្របគ្នានេះ ទាក់ទងនឹងការស្វែងរកដើម្បីជៀសវាងការឆ្លងផុតបន្ទាត់ដ៏ពិសិដ្ឋនោះ៖ “យើងមិនមានបំណងឱ្យ AI មានភាពស្របច្បាប់ក្នុងការបង្កើតច្បាប់ កំណត់ច្បាប់ជាមុន ឬអនុវត្តច្បាប់នោះទេ។ តាមពិត វានឹងធ្វើឱ្យខូចដល់វិធីសាស្រ្តរបស់យើង (ហើយយើងគួរតែវិនិយោគការខិតខំប្រឹងប្រែងយ៉ាងសំខាន់ក្នុងការទប់ស្កាត់វា)។ ផ្ទុយទៅវិញ គោលដៅដែលមានមហិច្ឆតាបំផុតនៃច្បាប់ផ្តល់ព័ត៌មានគឺការអ៊ិនកូដដោយការគណនា និងបង្កប់នូវភាពអាចយល់បានទូទៅនៃគំនិត និងស្តង់ដារច្បាប់ដែលមានស្រាប់ទៅក្នុងការអនុវត្ត AI ដែលមានសុពលភាព” (ibid)។

  • តុល្យភាពល្អរវាង AI តំណាងផ្នែកច្បាប់នៃច្បាប់ជាក្បួនធៀបនឹងស្តង់ដារ

ច្បាប់មានភាពរញ៉េរញ៉ៃ។

ចំពោះច្បាប់ណាមួយនៅលើសៀវភៅ ទំនងជាមានការបកស្រាយច្រើនអំពីអ្វីដែលច្បាប់ចែងក្នុងការអនុវត្តជាក់ស្តែង។ នៅក្នុងការប្រៀបធៀបនៃវិស័យ AI យើងសំដៅទៅលើច្បាប់ថាមានភាពមិនច្បាស់លាស់តាមន័យធៀប។ នោះហើយជាអ្វីដែលធ្វើឱ្យការអភិវឌ្ឍន៍ AI ដែលត្រូវបានអនុវត្តចំពោះច្បាប់នេះ មានភាពរំភើបរីករាយ និងមានការប្រឈមក្នុងពេលដំណាលគ្នាផងដែរ។ មិនដូចការបំបែកលេខច្បាស់លាស់ដែលអ្នកប្រហែលជាឃើញសម្រាប់កម្មវិធី AI ដែលផ្តោតលើផ្នែកហិរញ្ញវត្ថុ បំណងប្រាថ្នាក្នុងការបញ្ចូលច្បាប់របស់យើងទៅក្នុង AI រួមបញ្ចូលការដោះស្រាយជាមួយនឹងរលកយក្សស៊ូណាមិនៃភាពមិនច្បាស់លាស់នៃអត្ថន័យ។

នៅក្នុងសៀវភៅមូលដ្ឋានគ្រឹះរបស់ខ្ញុំស្តីពីមូលដ្ឋានគ្រឹះនៃ AI Legal Reasoning (AILR) ខ្ញុំបានពិភាក្សាអំពីរបៀបដែលការប៉ុនប៉ងពីមុនមកដោយគ្រាន់តែសរសេរកូដច្បាប់ទៅក្នុងសំណុំនៃច្បាប់ដែលមានព្រំប្រទល់មិនទទួលបានយើងដូចដែលយើងចង់ចូលទៅក្នុងដែនច្បាប់ (សូមមើល តំណភ្ជាប់នៅទីនេះ) AILR នាពេលបច្ចុប្បន្ននេះ ត្រូវតែរួមបញ្ចូលការរួមបញ្ចូលរវាងការប្រើប្រាស់ច្បាប់ និងអ្វីដែលអាចហៅថាស្តង់ដារត្រួតត្រា ដែលច្បាប់តំណាងឱ្យ។

សមតុល្យដ៏សំខាន់នេះអាចត្រូវបានបង្ហាញនៅក្នុងរបៀបនេះ៖ "នៅក្នុងការអនុវត្ត ច្បាប់ភាគច្រើនបានទៅដល់កន្លែងណាមួយនៅលើវិសាលគមរវាងច្បាប់សុទ្ធ និងស្តង់ដារសុទ្ធ ហើយទ្រឹស្ដីច្បាប់អាចជួយប៉ាន់ប្រមាណការរួមបញ្ចូលគ្នាត្រឹមត្រូវនៃ "នីតិរដ្ឋ" និង "ស្តង់ដារ" ។ នៅពេលបញ្ជាក់គោលបំណងនៃប្រព័ន្ធ AI” (ibid) ។

  • ទាមទារភស្តុតាងនៃ pudding នៅពេលដែលវាមកដល់ AI គោរពតាមច្បាប់

ចង់បានអ្វីខុសពីការចង់បាន។

ប្រាជ្ញា​មួយ​ចំនួន​បាន​កើត​ឡើង​នៅ​ពេល​ដែល​យើង​ចង់​មាន​អ្នក​ត្រួត​ពិនិត្យ​ផ្លូវ​ច្បាប់ AI ក៏​ដោយ យើង​ត្រូវ​ការ​ជា​ច្រើន​ដើម្បី​ធានា​ថា​ពួកគេ​ធ្វើការ និង​ធ្វើ​ការ​បាន​ត្រឹម​ត្រូវ។ ចំណាំថា នេះបង្ហាញពីឧបសគ្គដ៏លំបាក និងលំបាកមួយទៀត។ ខ្ញុំបានរៀបរាប់ពីភាពជឿនលឿន និងបញ្ហាប្រឈមចុងក្រោយបំផុតពីមុនមកក្នុងការផ្ទៀងផ្ទាត់ និងសុពលភាពនៃ AI សូមមើល តំណភ្ជាប់នៅទីនេះ.

ដូចដែលបានកត់សម្គាល់នៅក្នុងឯកសារស្រាវជ្រាវ៖ "ដើម្បីដោះស្រាយគម្លាតនេះ មុនពេលដែលគំរូ AI ត្រូវបានដាក់ពង្រាយក្នុងសមត្ថភាពភ្នាក់ងារកាន់តែខ្លាំងឡើង ឧ យានជំនិះដែលមានស្វ័យភាពពេញលេញនៅលើផ្លូវធំៗ ភាគីដាក់ពង្រាយគួរតែបង្ហាញពីការយល់ដឹងរបស់ប្រព័ន្ធអំពីគោលដៅរបស់មនុស្ស គោលនយោបាយ និងស្តង់ដារច្បាប់។ នីតិវិធីផ្ទៀងផ្ទាត់អាចបង្ហាញពី 'ការយល់ដឹង' របស់ AI នៃ 'អត្ថន័យ' នៃគោលគំនិតផ្លូវច្បាប់» (ibid)។

សន្និដ្ឋាន

ខ្ញុំសូមជំរុញឱ្យអ្នកពិចារណាចូលរួមជាមួយខ្ញុំក្នុងដំណើរស្វែងរកដ៏ថ្លៃថ្នូនេះ ដើម្បីកសាង និងដាក់ឱ្យអ្នកត្រួតពិនិត្យពីរដងផ្នែកច្បាប់ AI ។ យើង​ត្រូវ​ការ​ការ​យក​ចិត្ត​ទុក​ដាក់​បន្ថែម​ទៀត និង​ធនធាន​ដែល​ត្រូវ​បាន​ឧទ្ទិស​ដល់​ការ​ខិតខំ​ប្រឹងប្រែង​ប្រកប​ដោយ​គុណធម៌​នេះ។

នេះក៏ផ្តល់នូវកាតព្វកិច្ចទ្វេរដង ដូចដែលបានរៀបរាប់ពីមុន ឆ្ពោះទៅរកការសម្រេចបាន AI Legal Reasoning (AILR) ដែលអាចត្រូវបានប្រើសម្រាប់ការផ្តល់ជំនួយដល់មេធាវី និងអាចប្រើប្រាស់ដោយផ្ទាល់ដោយសាធារណជនទូទៅ។ ជាការពិត អ្នកខ្លះប្រកែកយ៉ាងខ្លាំងថា មធ្យោបាយដែលអាចសម្រេចបានតែមួយគត់នៃការឈានដល់ភាពពេញលេញនៃការទទួលបានយុត្តិធម៌ (A2J) នឹងតាមរយៈការបង្កើត AI ដែលបង្កប់នូវសមត្ថភាពផ្លូវច្បាប់ និងអាចចូលប្រើបានដោយទាំងអស់គ្នា។

ចំណុចចុងក្រោយរហ័សមួយសម្រាប់ពេលនេះ។

ការពិភាក្សាកន្លងមកបានសង្កត់ធ្ងន់ថា AI Legal double-checker នឹងត្រូវបានបង្កប់ ឬដាក់ចូលទៅក្នុង AI ។ នេះពិតជាការផ្តោតសំខាន់របស់អ្នកស្រាវជ្រាវ និងអនុវត្តអាណាចក្រដែលកំពុងរីកចម្រើននេះ។

នេះជាសំណួរដែលគួរពិចារណា។

ពាក់មួកគំនិតរបស់អ្នក។

ហេតុអ្វីមិនប្រើ AI Legal-checkers នៅក្នុងកម្មវិធីទាំងអស់?

ចំនុចសំខាន់គឺថា ជាជាងប្រើប្រាស់ទាំងស្រុងនូវ AI Legal-checkers ពីរដងនៅក្នុង AI ប្រហែលជាយើងគួរតែពង្រីកទស្សនៈរបស់យើង។ កម្មវិធីគ្រប់ប្រភេទអាចវង្វេងផ្លូវច្បាប់។ AI បានទទួលស្គាល់ថាបានទទួលចំណែកនៃការយកចិត្តទុកដាក់របស់សត្វតោ ដោយសារតែវិធីដែល AI ជាធម្មតាត្រូវបានដាក់ឱ្យប្រើប្រាស់ ដូចជាការបង្ហាញការសម្រេចចិត្តដែលធ្វើអោយប៉ះពាល់ដល់មនុស្សក្នុងជីវិតប្រចាំថ្ងៃរបស់ពួកគេ។ ទោះបីជាអ្នកអាចរក្សាបានយ៉ាងងាយស្រួលថាមានប្រព័ន្ធមិនមែន AI ជាច្រើនដែលធ្វើដូចគ្នានេះ។

ជារួម យើងមិនគួរអនុញ្ញាតឱ្យកម្មវិធីណាមួយមានជិះដោយឥតគិតថ្លៃ ដើម្បីជៀសវាង ឬប្រឆាំងនឹងច្បាប់នោះទេ។

សូមរំលឹកមុននេះផងដែរ ដែលខ្ញុំបានលើកឡើងពីប្រភេទពីរនៃការបញ្ចូលគ្នារវាង AI និងច្បាប់។ យើងនៅទីនេះបានផ្តោតលើការប្រើប្រាស់ AI ដូចដែលបានអនុវត្តចំពោះច្បាប់។ នៅផ្នែកម្ខាងទៀតនៃកាក់គឺជាការអនុវត្តច្បាប់ទៅ AI ។ ឧបមាថាយើងបង្កើតច្បាប់ដែលតម្រូវឱ្យប្រើប្រាស់ AI Legal double-checkers ។

ដំបូងឡើយ វាប្រហែលជាត្រូវបានបង្ខាំងនៅក្នុងប្រព័ន្ធ AI ជាពិសេសអ្នកដែលវាយតម្លៃថាមានហានិភ័យខ្ពស់។ បន្តិចម្ដងៗ តម្រូវការត្រួតពិនិត្យពីរដងផ្លូវច្បាប់ AI ដូចគ្នាអាចត្រូវបានពង្រីកទៅកម្មវិធីដែលមិនមែនជា AI ផងដែរ។ ជាថ្មីម្តងទៀត មិនមានការជិះដោយឥតគិតថ្លៃទេ។

ខណៈពេលដែលអ្នកគុយទាវនៅលើការពិចារណាខាងលើ ខ្ញុំនឹងបន្ថែមគ្រឿងទេសជាឈុតខ្លីៗ។ ប្រសិនបើ​យើង​នឹង​ព្យាយាម​ទាមទារ​ឱ្យ​មាន​អ្នក​ត្រួតពិនិត្យ​ពីរដង​តាម​ផ្លូវច្បាប់ AI នោះ​យើង​ក៏​អាច​នឹង​ធ្វើ​ដូចគ្នា​ដែរ​អំពី​អ្នកត្រួតពិនិត្យ​ពីរដង​នៃ​ក្រមសីលធម៌ AI ។ ការប្រើប្រាស់ AI Legal double-checker គឺគ្រាន់តែជារឿងពាក់កណ្តាលប៉ុណ្ណោះ ហើយយើងក៏មិនអាចធ្វេសប្រហែស ឬភ្លេចអំពីកង្វល់នៃក្រមសីលធម៌ AI ផងដែរ។

ខ្ញុំ​នឹង​បញ្ចប់​សុន្ទរកថា​ដ៏​រីករាយ​នេះ​ជាមួយនឹង​សម្រង់​មួយ​ដែល​ខ្ញុំ​ចូលចិត្ត។ តាមសំដីដ៏ឈ្លាសវៃរបស់ Earl Warren ដែលជាអ្នកច្បាប់ដ៏ល្បីល្បាញដែលបានបម្រើការជាប្រធានចៅក្រមនៃសហរដ្ឋអាមេរិក៖ "នៅក្នុងជីវិតស៊ីវិល័យ ច្បាប់អណ្តែតនៅក្នុងសមុទ្រនៃក្រមសីលធម៌"។

វាអាចជាការល្អបំផុតក្នុងការដាក់អ្នកត្រួតពិនិត្យ AI Legal double-checkers និង AI Ethics double-checkers ចូលទៅក្នុងការប្រើប្រាស់ដោយប៉ិនប្រសប់ ប្រសិនបើយើងចង់រក្សាក្បាលរបស់យើងឱ្យនៅពីលើសមុទ្រដែលមានសក្តានុពលខ្លាំងពី AI ជូរចត់ និងប្រព័ន្ធដែលមិនមែនជា AI ដែលបង្កគ្រោះថ្នាក់ដល់សុវត្ថិភាពរបស់យើង។ .

ពួកគេអាចជាអាវជីវិតរបស់មនុស្សជាតិ។

ប្រភព៖ https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- និង-ច្បាប់/