នៅក្នុងជួរឈរថ្ងៃនេះ ខ្ញុំនឹងត្បាញប្រធានបទជាច្រើនដែលមើលទៅហាក់ដូចជាខុសគ្នាពី AI ទៅជាក្រណាត់ត្បាញដ៏ស្រស់ស្អាតមួយ។
តើអ្នករូចរាល់ហើយឬនៅ?
ស្រមៃថាអ្នកកំពុងប្រើកម្មវិធីដែលដំណើរការដោយ AI ដែលជួយអ្នកពេលកំពុងបំពេញកិច្ចការសំខាន់ៗមួយចំនួន។ ប្រហែលជាបញ្ហាហិរញ្ញវត្ថុ ឬអាចជាបញ្ហាសុខភាព។ ខ្លឹមសារគឺថាអ្នកពឹងផ្អែកលើ AI ដើម្បីធ្វើរឿងត្រឹមត្រូវ និងអនុវត្តក្នុងលក្ខណៈសុវត្ថិភាព និងសមហេតុផល។
ឧបមាថា AI ចូលទៅក្នុងទឹកដីដែលគ្មានសីលធម៌។
អ្នកប្រហែលជាមិនដឹងថា AI កំពុងធ្វើដូច្នេះទេ។
ជាឧទាហរណ៍ AI អាចពឹងផ្អែកលើកត្តារើសអើងដែលលាក់កំបាំង ដូចជាពូជសាសន៍ ឬភេទ ទោះបីអ្នកប្រហែលជាមិនមានមធ្យោបាយដែលអាចសម្រេចបានក្នុងការយល់ដឹងពីការប្រើប្រាស់ដែលមិនសមហេតុផលក៏ដោយ។ នៅទីនោះអ្នកតែម្នាក់ឯង ទទួលបានចុងខ្លីនៃដំបងតាមរយៈ AI ដែលត្រូវបានរៀបចំចេញពីផ្លូវដែលមានបញ្ហា ឬបានគ្រប់គ្រងដើម្បីឈានទៅរកគ្រោះថ្នាក់ខាងសីលធម៌ និងព្រំដែន (ខ្ញុំនឹងនិយាយបន្ថែមទៀតអំពី មួយភ្លែតនេះ)។
តើអ្នកអាចធ្វើអ្វីបាន ឬអ្វីដែលអាចធ្វើបានអំពី AI ដែលជ្រើសរើសដើរតាមផ្លូវគ្មានសីលធម៌?
ក្រៅពីការព្យាយាមសាងសង់ AI ជាមុន ដើម្បីកុំឱ្យវាធ្វើសកម្មភាពអាក្រក់បែបនេះ ខ្ញុំក៏ធ្លាប់បានរៀបរាប់លម្អិតផងដែរថា មានការចាប់អារម្មណ៍កើនឡើងក្នុងការបង្កប់ ការត្រួតពិនិត្យក្រមសីលធម៌ AI សមាសធាតុចូលទៅក្នុងវាលស្មៅដែលកំពុងរីកដុះដាលនៃ Wild West អ្វីក៏ដោយដែលប្រព័ន្ធ AI ត្រូវបានគេបោះចូលទៅក្នុងទីផ្សារ។ គំនិតនេះគឺថា ដើម្បីព្យាយាម និងការពារកម្មវិធីដែលបញ្ចូល AI ពីការចូលទៅក្នុងវិមាត្រសីលធម៌ យើងអាចប្រើ AI បន្ថែមដើម្បីធ្វើការត្រួតពិនិត្យ និងតុល្យភាព។ AI ដែលត្រូវបានបន្ថែមនេះអាចស្ថិតនៅក្រៅកម្មវិធី AI គោលដៅ ឬអាចជាធាតុផ្សំដែលបានបង្កប់ ឬបញ្ចូលដោយផ្ទាល់ទៅក្នុង AI ដែលយើងចង់ធ្វើការត្រួតពិនិត្យពីរដង។
ដូចដែលខ្ញុំបាននិយាយពីមុនសូមមើល តំណភ្ជាប់នៅទីនេះ: “និន្នាការដែលកំពុងលេចចេញនាពេលថ្មីៗនេះរួមមានការព្យាយាមបង្កើតផ្លូវការពារសីលធម៌ទៅក្នុង AI ដែលនឹងចាប់បាន នៅពេលដែលប្រព័ន្ធ AI ដែលនៅសល់ចាប់ផ្តើមហួសពីព្រំដែនក្រមសីលធម៌ដែលបានកំណត់ទុកជាមុន។ ក្នុងន័យមួយ គោលដៅគឺប្រើប្រាស់ AI ខ្លួនឯង ដើម្បីរក្សាខ្លួនពីភាពខុសឆ្គងខាងសីលធម៌។ អ្នកអាចនិយាយបានថាយើងមានគោលបំណងឱ្យ AI ព្យាបាលដោយខ្លួនវាផ្ទាល់» (Lance Eliot, "Crafting Ethical AI That Monitors Unethical AI and Tries To Deter Bad AI from Acting Up", ទស្សនាវដ្តី Forbes, ថ្ងៃទី 28 ខែមីនា ឆ្នាំ 2022)។
អ្នកក៏អាចរកឃើញចំណាប់អារម្មណ៍ដែលពាក់ព័ន្ធសៀវភៅរបស់ខ្ញុំនៅលើ រូបយន្តអាណាព្យាបាល AIជួនកាលគេហៅថា ទេវតាអាណាព្យាបាល ដែលគ្របដណ្ដប់លើផ្នែកបច្ចេកទេសនៃ AI-in-the-art ដែលបានបង្កប់ក្នុង AI អ្នកត្រួតពិនិត្យពីរដងសូមមើល តំណភ្ជាប់នៅទីនេះ.
ចំនុចសំខាន់គឺថា bacon របស់អ្នកអាចនឹងត្រូវបានសង្គ្រោះដោយអរគុណដោយការប្រើប្រាស់ AI បង្កប់នូវធាតុវាស់សីលធម៌ពីរដងដែលត្រូវបានបង្កើត និងបញ្ចូលទៅក្នុងកម្មវិធី AI ដែលអ្នកកំពុងប្រើ។ ប៉ុន្តែតើវាគ្រប់គ្រាន់ទេសម្រាប់អាណាព្យាបាល ដើម្បីប្រាកដថា AI មិនរឹងរូសអ្នកទាំងស្រុង ហើយចូលទៅក្នុងដីដែលបង្កគ្រោះថ្នាក់សូម្បីតែមួយ?
អ្នកឃើញទេ កម្មវិធី AI អាចដំណើរការបានយ៉ាងច្បាស់ ខុសច្បាប់ ទង្វើ។
វាជារឿងមួយដែល AI ដែលចូលទៅក្នុងតំបន់ពណ៌ប្រផេះនៃអ្វីដែលយើងចាត់ទុកថាជាអាកប្បកិរិយាប្រកបដោយសីលធម៌ ឬគ្មានសីលធម៌។ អាកប្បកិរិយាមិនសមរម្យស្មើគ្នា និងការព្រួយបារម្ភដែលទំនងជាកាន់តែអាក្រក់ទៅៗ AI ដែលគ្រាន់តែលោតផ្លោះឆ្លាមដូចដែលវាមាន ហើយធ្លាក់ចូលទៅក្នុងភាពងងឹតដ៏អាក្រក់នៃអំពើខុសច្បាប់ទាំងស្រុង។
AI ខុសច្បាប់គឺអាក្រក់។ ការអនុញ្ញាតឱ្យ AI ខុសច្បាប់ទៅដោយគ្មានអ្នកមើលគឺជារឿងអាក្រក់។ អ្នកប្រាជ្ញផ្នែកច្បាប់មួយចំនួនមានការព្រួយបារម្ភជាចំហថា ការមកដល់ និងការរីករាលដាលនៃ AI នឹងកាត់បន្ថយបន្តិចម្តងៗ និងគួរឱ្យភ័យខ្លាចចំពោះរូបរាងរបស់យើងនៃ នីតិរដ្ឋសូមមើលការវិភាគរបស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ.
រង់ចាំមួយវិនាទី អ្នកប្រហែលជាកំពុងនិយាយ។
អ្នកអាចនឹងត្រូវបានល្បួងឱ្យគិតថាអ្នកបង្កើត AI នឹង មិនដែល កម្មវិធី AI របស់ពួកគេដើម្បីប្រឆាំងនឹងច្បាប់។ នឹកស្មានមិនដល់។ មានតែមនុស្សអាក្រក់ទេដែលនឹងធ្វើដូច្នេះ (ដែលតាមវិធីនេះ សូមចងចាំថាមានអ្នកដែលមានចេតនាបង្កើត និងប្រើប្រាស់ AI សម្រាប់គោលបំណងអាក្រក់ ដែលជាតំបន់ចាប់អារម្មណ៍ចំពោះឧក្រិដ្ឋជន និងអ្នកដទៃដែលចង់ប្រើ AI សម្រាប់សកម្មភាពមិនសមរម្យ)។
សូមអភ័យទោស ប៉ុន្តែវាជាការគិតប្រកបដោយក្តីប្រាថ្នាក្នុងការសន្មត់ថាអ្នកអភិវឌ្ឍន៍ AI ដែលមិនអាក្រក់ទាំងអស់នឹងធ្វើឱ្យប្រាកដថា AI របស់ពួកគេមានច្បាប់ពេញលេញ។ វាអាចថា AI កែប្រែខ្លួនឯង និងវង្វេងចូលទៅក្នុងសកម្មភាពខុសច្បាប់។ ជាការពិតណាស់ វាក៏មានសក្តានុពលដែលអ្នកអភិវឌ្ឍន៍ AI ចង់ឱ្យ AI ធ្វើសកម្មភាពខុសច្បាប់ ឬថាពួកគេមិនបានដឹងអំពីអ្វីដែលបង្កើតបានជាខុសច្បាប់ធៀបនឹងទង្វើផ្លូវច្បាប់ នៅពេលដែលពួកគេកំពុងបង្កើត AI (បាទ វាអាចទៅរួចណាស់ ពោលគឺថា ក្រុមបច្ចេកវិទ្យា AI ទាំងអស់ដែលដឹកនាំដោយព្រឹទ្ធាចារ្យអាចមានភាពល្ងង់ខ្លៅចំពោះភាពស្របច្បាប់នៃ AI របស់ពួកគេ ដែលវាមិនអាចដោះសារបាន និងនៅតែកើតឡើងជាមួយនឹងប្រេកង់នៃការប្រកាសអាសន្ន)។
តើអាចធ្វើអ្វីបានអំពីរឿងនេះ?
ជាថ្មីម្តងទៀត ក្រៅពីការព្យាយាមដើម្បីធានាថា AI នៅខាងក្រៅទ្វារត្រូវបានបិទដោយដែក និងស្របច្បាប់ វិធីសាស្រ្តបន្ថែមក្នុងការទទួលបានចំហាយទឹកពាក់ព័ន្ធនឹងការបង្កប់ ឬបញ្ចូលសមាសធាតុ AI ដែលធ្វើការត្រួតពិនិត្យពីរដងស្របច្បាប់សម្រាប់កម្មវិធី AI ដែលនៅសល់។ ដោយអង្គុយស្ងៀម ហើយជារឿយៗមិនមានការបញ្ជាក់ AI ដែលត្រូវបានបន្ថែមនេះកំពុងសង្កេតមើល AI ដែលនៅសល់ ដើម្បីសាកល្បង និងស្វែងយល់ថាតើ AI នឹងទៅជាបញ្ឆោតឬយ៉ាងហោចណាស់ឈានទៅហួសដែនកំណត់នៃការរឹតបន្តឹងផ្នែកច្បាប់ ឬបទប្បញ្ញត្តិ។
ឥឡូវនេះ យើងមាន AI ពីរប្រភេទនៃការត្រួតពិនិត្យពីរដងដែលត្រូវបានបង្កប់នៅក្នុងកម្មវិធី AI៖
- អ្នកត្រួតពិនិត្យទ្វេដងនៃក្រមសីលធម៌ AI៖ នៅក្នុងពេលវេលាជាក់ស្តែង សមាសភាគនេះ ឬកម្មវិធីបន្ថែម AI វាយតម្លៃផ្នែកដែលនៅសល់នៃ AI សម្រាប់អាកប្បកិរិយាប្រកបដោយក្រមសីលធម៌ និងគ្មានសីលធម៌ដែល AI បង្ហាញ
- AI Legal អ្នកត្រួតពិនិត្យពីរដង៖ នៅក្នុងពេលវេលាជាក់ស្តែង សមាសភាគនេះ ឬកម្មវិធីបន្ថែម AI វាយតម្លៃផ្នែកដែលនៅសល់នៃ AI សម្រាប់ការធានានៃការស្នាក់នៅក្នុងគន្លឺះផ្លូវច្បាប់ និងសម្រាប់ការចាប់សកម្មភាពខុសច្បាប់ដែលកំពុងកើតឡើងដោយ AI
ដើម្បីបញ្ជាក់ ទាំងនោះគឺជាគំនិតថ្មី ហើយដូចដែល AI ដែលអ្នកកំពុងប្រើសព្វថ្ងៃនេះអាចស្ថិតនៅក្នុងលក្ខខណ្ឌណាមួយនាពេលបច្ចុប្បន្ននេះ៖
- AI ដែលមិនមានអ្នកត្រួតពិនិត្យពីររួមបញ្ចូលទាំងអស់
- AI ដែលមាន AI Ethics double-checker រួមបញ្ចូល ប៉ុន្តែមិនមានអ្នកត្រួតពិនិត្យពីរដងផ្សេងទៀតទេ។
- AI ដែលមាន AI Legal double-checker រួមបញ្ចូល ប៉ុន្តែមិនមានអ្នកត្រួតពិនិត្យពីរដងផ្សេងទៀតទេ។
- AI ដែលមានទាំង AI Ethics double-checker និង AI Legal double-checker
- ផ្សេងទៀត
មានទិដ្ឋភាពដ៏លំបាកមួយចំនួននៃការមានទាំងអ្នកត្រួតពិនិត្យទ្វេដង AI Ethics និង AI Legal double-checker ធ្វើការដោយភាគីម្ខាងៗនៅក្នុងកម្មវិធី AI ជាបងប្អូនបង្កើត។ នេះគឺជាប្រភេទនៃការសម្របសម្រួលទ្វេរដង ដែលអាចពិបាកក្នុងការសម្របសម្រួលជាងការស្មាន (ខ្ញុំគិតថាយើងទាំងអស់គ្នាដឹងថាបងប្អូនប្រុសស្រីអាចមានចំណងដ៏តឹងរ៉ឹងបំផុត ទោះបីជាពួកគេក៏អាចប្រយុទ្ធបានដូចពួកឌីកឃីនពីពេលមួយទៅពេលមួយ និងមានការប្រឆាំងយ៉ាងខ្លាំងក្លា។ ទស្សនៈ)។
ខ្ញុំបានពិភាក្សាអំពីការលំបាកប្រភេទនេះ។ ទ្វេនិយម៖ “ភាពមិនអើពើទ្វេរភាគីកំពុងកើតឡើងនៅក្នុង AI សម្រាប់ Social Good ដែលពាក់ព័ន្ធនឹងការខ្វះការរួមបញ្ចូលទាំងតួនាទីនៃភ្នាក់ងារសីលធម៌សិប្បនិម្មិត និងហេតុផលផ្នែកច្បាប់សិប្បនិម្មិតនៅក្នុងប្រព័ន្ធ AI កម្រិតខ្ពស់។ កិច្ចខិតខំប្រឹងប្រែងរបស់អ្នកស្រាវជ្រាវ AI និងអ្នកអភិវឌ្ឍន៍ AI មានទំនោរផ្តោតលើវិធីបង្កើត និងបង្កប់ភ្នាក់ងារសីលធម៌សិប្បនិម្មិត ដើម្បីណែនាំការសម្រេចចិត្តខាងសីលធម៌ នៅពេលដែលប្រព័ន្ធ AI កំពុងដំណើរការនៅក្នុងវិស័យនេះ ប៉ុន្តែមិនបានផ្តោតលើ និងបូកបញ្ចូលការប្រើប្រាស់សមត្ថភាពហេតុផលផ្លូវច្បាប់សិប្បនិម្មិតនោះទេ។ ដែលចាំបាច់ដូចគ្នាសម្រាប់លទ្ធផលខាងសីលធម៌ និងផ្លូវច្បាប់ដ៏រឹងមាំ” (Lance Eliot, “The Neglected Dualism Of Artificial Moral Agency and Artificial Legal Reasoning In AI For Social Good,” សាកលវិទ្យាល័យ Harvard CRCS Annual Conference 2020, មជ្ឈមណ្ឌល Harvard សម្រាប់សង្គមស្រាវជ្រាវ និងគណនា)
ប្រសិនបើអ្នកចង់គុយទាវអំពីមូលហេតុដែលអាចមានភាពតានតឹងរវាងអ្នកត្រួតពិនិត្យពីរដងនៃក្រមសីលធម៌ AI និងអ្នកត្រួតពិនិត្យពីរដងផ្នែកច្បាប់ AI អ្នកអាចរកឃើញសម្រង់ដ៏គួរឱ្យកត់សម្គាល់នេះនៃភាពសក្ដិសមនៃគំនិតដែលពត់ខ្លួន៖ "ច្បាប់អាចអនុញ្ញាតិឱ្យធ្វើសកម្មភាពពិសេសមួយចំនួន។ ទោះបីជាទង្វើនោះជាអំពើអសីលធម៌ក៏ដោយ ហើយច្បាប់អាចហាមប្រាមទង្វើមួយ ទោះជាទង្វើនោះត្រូវបានអនុញ្ញាតដោយសីលធម៌ ឬតម្រូវឱ្យមានសីលធម៌ក៏ដោយ» ( Shelly Kagan, ដែនកំណត់នៃសីលធម៌, 1998) ។
ចូរយើងផ្លាស់ប្តូរការផ្តោតអារម្មណ៍របស់យើងបន្តិច ហើយមើលពីរបៀបដែលឧបករណ៍ត្រួតពិនិត្យពីរដងទាំងនេះចូលទៅក្នុងប្រធានបទ AI ដែលត្រូវបានពិនិត្យយ៉ាងច្បាស់លាស់មួយទៀតគឺ ទទួលខុសត្រូវ AI ឬការពិចារណារួមគ្នានៃការតម្រឹមនៃតម្លៃមនុស្ស និង AI ។
សញ្ញាណទូទៅគឺថាយើងចង់បាន AI ដែលគោរពតាមតម្លៃមនុស្សត្រឹមត្រូវ និងចង់បាន។ អ្នកខ្លះសំដៅទៅលើរឿងនេះ ទទួលខុសត្រូវ AI. អ្នកផ្សេងទៀតពិភាក្សាស្រដៀងគ្នា AI ទទួលខុសត្រូវ, AI ដែលគួរឱ្យទុកចិត្តនិង ការតម្រឹម AIទាំងអស់នេះ ប៉ះលើគោលការណ៍គ្រឹះតែមួយ។ សម្រាប់ការពិភាក្សារបស់ខ្ញុំលើបញ្ហាសំខាន់ៗទាំងនេះ សូមមើល តំណភ្ជាប់នៅទីនេះ និង តំណភ្ជាប់នៅទីនេះ, គ្រាន់តែឈ្មោះមួយចំនួន។
តើយើងអាចយក AI ឱ្យស្របតាមតម្លៃមនុស្សបានដោយរបៀបណា?
ដូចដែលបានស្នើពីមុន យើងនឹងសង្ឃឹមថាអ្នកអភិវឌ្ឍន៍ AI នឹងយល់ដឹងពីការអភិវឌ្ឍន៍ AI ដែលទទួលបាននូវទំនួលខុសត្រូវ AI ។ ជាការសោកស្ដាយ ពួកគេប្រហែលជាមិនបានដូចជាហេតុផលដែលបានបកស្រាយមុននេះទេ។ លើសពីនេះ ពួកគេអាចនឹងព្យាយាមធ្វើដូច្នេះ ប៉ុន្តែទោះជាយ៉ាងណា AI បញ្ចប់ការកែតម្រូវដោយខ្លួនឯង ហួសពីអាណាចក្រនៃអាកប្បកិរិយាប្រកបដោយសីលធម៌ ឬអាចចូលទៅក្នុងទឹកដែលខុសច្បាប់។
ជាការប្រសើរណាស់ យើងត្រូវពិចារណាអ្នកត្រួតពិនិត្យពីរដងដែលមានប្រយោជន៍របស់យើងជាមធ្យោបាយមួយដើម្បីទប់ស្កាត់ហានិភ័យ និងការប៉ះពាល់ទាំងនេះ។ ការប្រើប្រាស់ឧបករណ៍ត្រួតពិនិត្យទ្វេដងនៃក្រមសីលធម៌ AI ដែលរៀបចំបានល្អអាចជួយជាសម្ភារៈក្នុងការតម្រឹម AI ជាមួយនឹងតម្លៃរបស់មនុស្ស។ ស្រដៀងគ្នានេះដែរ ការប្រើប្រាស់ឧបករណ៍ត្រួតពិនិត្យពីរដងផ្លូវច្បាប់ AI ដែលមានការរៀបចំយ៉ាងល្អ អាចជួយយ៉ាងសំខាន់ក្នុងការតម្រឹម AI ជាមួយនឹងតម្លៃរបស់មនុស្ស។
ដូច្នេះ មធ្យោបាយដ៏សំខាន់ និងមិនទាន់ល្បីក្នុងការស្វែងរកដើម្បីទៅដល់ការទទួលខុសត្រូវ AI, Trustworthy AI, Accountable AI, AI Alignment ជាដើម នឹងពាក់ព័ន្ធនឹងការប្រើប្រាស់ឧបករណ៍ត្រួតពិនិត្យពីរដងនៃ AI ដូចជា AI Ethics double-checker និង AI Legal checker ពីរដងដែលនឹងធ្វើការដោយមិននឿយហត់ជាការត្រួតពិនិត្យពីរដងលើ AI ដែលពួកគេត្រូវបានបង្កប់នៅក្នុង។
នៅក្នុងការពិភាក្សានេះ ខ្ញុំចង់និយាយលម្អិតបន្តិចអំពីធម្មជាតិ និងការសាងសង់របស់ AI Legal checkerers ដែលអាចបញ្ចូលទៅក្នុង AI ។ ដើម្បីធ្វើដូច្នេះ វាអាចមានប្រយោជន៍ក្នុងការចែករំលែកជាមួយអ្នកនូវផ្ទៃខាងក្រោយបន្ថែមមួយចំនួនលើប្រធានបទទាំងមូលនៃ AI និងច្បាប់.
សម្រាប់ការពិនិត្យគ្មានន័យអំពីរបៀបដែល AI និងច្បាប់កំពុងលាយឡំគ្នា សូមមើលការពិភាក្សារបស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ. នៅក្នុងការក្រឡេកមើលដ៏ឆ្លាតវៃរបស់ខ្ញុំ AI និងច្បាប់ ការភ្ជាប់គ្នា ខ្ញុំផ្តល់នូវការយល់ឃើញដ៏ត្រង់នេះនៃវិធីសំខាន់ពីរដើម្បីទាក់ទងគ្នារវាង AI និងច្បាប់៖
- (1) ច្បាប់អនុវត្តចំពោះ AI៖ ការបង្កើត ការអនុម័ត និងការអនុវត្តច្បាប់ដែលត្រូវបានអនុវត្តចំពោះបទប្បញ្ញត្តិ ឬការគ្រប់គ្រងនៃបញ្ញាសិប្បនិមិត្តនៅក្នុងសង្គមរបស់យើង
- (2) AI-applied-to-Law: បច្ចេកវិទ្យា Artificial Intelligence បានបង្កើត និងអនុវត្តទៅក្នុងច្បាប់ រួមទាំង AI-based Legal Reasoning (AILR) ដែលបញ្ចូលទៅក្នុងកម្មវិធីបច្ចេកវិទ្យាខ្ពស់ LegalTech ដើម្បីធ្វើការងារមេធាវីដោយស្វ័យភាព ឬពាក់កណ្តាលស្វ័យភាព។
ទស្សនៈដំបូងដែលបានរាយបញ្ជីរួមមានការពិចារណាអំពីរបៀបដែលច្បាប់ដែលមានស្រាប់ និងថ្មីនឹងគ្រប់គ្រង AI ។ ទស្សនៈទីពីរដែលបានរាយបញ្ជីទាក់ទងនឹងការអនុវត្ត AI ទៅនឹងច្បាប់។
ប្រភេទចុងក្រោយនេះជាធម្មតាពាក់ព័ន្ធនឹងការប្រើប្រាស់ AI-based Legal Reasoning (AILR) នៅក្នុងឧបករណ៍អនឡាញជាច្រើនដែលប្រើដោយមេធាវី។ ឧទាហរណ៍ AI អាចជាផ្នែកនៃកញ្ចប់ Contract Life Cycle Management (CLM) ដែលជួយមេធាវីដោយកំណត់អត្តសញ្ញាណភាសាកិច្ចសន្យាដែលនឹងមានប្រយោជន៍សម្រាប់ការព្រាងកិច្ចសន្យាថ្មី ឬអាចរកឃើញកិច្ចសន្យាដែលមានភាសាដែលគួរឱ្យចង់បានស្របច្បាប់ ដែលអនុញ្ញាតឱ្យមានកំហុស ឬចន្លោះប្រហោងផ្លូវច្បាប់។ (សម្រាប់ការក្រឡេកមើលរបស់ខ្ញុំនៅអ្វីដែលគេហៅថា "ក្លិនច្បាប់" ដែលអាចយល់បានដោយ AI សូមមើល តំណភ្ជាប់នៅទីនេះ).
យើងនឹងជៀសមិនផុតពីការអនុវត្ត AI ចំពោះច្បាប់ដែលអាចប្រើបានដោយសាធារណជនទូទៅ ហើយដែលមិនតម្រូវឱ្យមានមេធាវីដើម្បីចូលរួម។ ឥឡូវនេះ ជាលទ្ធផលនៃការរឹតបន្តឹងផ្សេងៗ រួមទាំង UPL (ការអនុវត្តច្បាប់ដែលគ្មានការអនុញ្ញាត) ដែលធ្វើឱ្យកម្មវិធីប្រឹក្សាផ្នែកច្បាប់ដែលមានមូលដ្ឋានលើ AI គឺជាបញ្ហាដ៏ស្មុគស្មាញ និងចម្រូងចម្រាស សូមមើលការពិភាក្សារបស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ.
ខ្ញុំបានលើកយកការណែនាំអំពី AI & Law ដើម្បីចង្អុលបង្ហាញថាការប្រើប្រាស់ឧបករណ៍មួយផ្សេងទៀតនៃ AI ដែលបានអនុវត្តចំពោះច្បាប់គឺដើម្បីបង្កើត AI Legal double-checkers ។
មែនហើយ ភាពប៉ិនប្រសប់ផ្នែកបច្ចេកវិទ្យាដូចគ្នាដែលពាក់ព័ន្ធនឹងការអនុវត្តន៍ AI ទៅនឹងច្បាប់គឺអាចបំពេញកាតព្វកិច្ចពីរដងដោយប្រើ AI សម្រាប់បម្រើជាអ្នកត្រួតពិនិត្យទ្វេដង AI ដែលត្រូវបានបង្កប់ ឬដាក់បញ្ចូលទៅក្នុងច្បាប់។ AI Legal double-checker គឺជាធាតុផ្សំដែលត្រូវតែឆ្លងកាត់ផ្នែកច្បាប់។ នៅពេលដែលកម្មវិធី AI ដែលនៅសេសសល់កំពុងធ្វើសកម្មភាពផ្សេងៗ អ្នកត្រួតពិនិត្យពីរដងផ្លូវច្បាប់ AI កំពុងធ្វើការវាស់វែងថាតើកម្មវិធី AI ធ្វើដូច្នេះដោយស្របច្បាប់ និងក្នុងដែនកំណត់ស្របច្បាប់ដែរឬទេ។
សមាសធាតុអ្នកត្រួតពិនិត្យពីរដងផ្នែកច្បាប់របស់ AI មិនចាំបាច់គ្របដណ្តប់ពេញលេញនៃអ្វីគ្រប់យ៉ាងដែលត្រូវដឹងអំពីច្បាប់នោះទេ។ អាស្រ័យលើលក្ខណៈនៃកម្មវិធី AI ទាក់ទងនឹងគោលបំណង និងសកម្មភាពរបស់ AI ទាំងមូល អ្នកត្រួតពិនិត្យពីរដងផ្នែកច្បាប់របស់ AI អាចមានលក្ខណៈតូចចង្អៀតជាងនៅក្នុងលក្ខខណ្ឌនៃជំនាញច្បាប់ដែលវាមាន។
ខ្ញុំបានកំណត់ក្របខណ្ឌដែលមានប្រយោជន៍សម្រាប់ការបង្ហាញពីរបៀបដែល AI ក្នុងដែនច្បាប់មានជួរឆ្លងកាត់ស៊េរីនៃសមត្ថភាពស្វយ័តដែលគេស្គាល់ថាជា Levels of Autonomy (LoA)។ សម្រាប់ទិដ្ឋភាពទូទៅសូមមើលរបស់ខ្ញុំ ទស្សនាវដ្តី Forbes ការបង្ហោះជួរឈរនៃថ្ងៃទី 21 ខែវិច្ឆិកាឆ្នាំ 2022 "ករណីដ៏ទូលំទូលាយគ្មានន័យសម្រាប់ហេតុផលដែលមេធាវីត្រូវដឹងអំពី AI និងច្បាប់" នៅ តំណភ្ជាប់នៅទីនេះហើយសម្រាប់ការពិពណ៌នាបច្ចេកទេសលម្អិត សូមមើលអត្ថបទស្រាវជ្រាវស៊ីជម្រៅរបស់ខ្ញុំនៅក្នុង ទិនានុប្បវត្តិច្បាប់គណនារបស់ MIT ថ្ងៃទី 7 ខែធ្នូ ឆ្នាំ 2021 សូមមើល តំណភ្ជាប់នៅទីនេះ.
ក្របខ័ណ្ឌនេះពន្យល់ពីកម្រិតប្រាំនៃ AI ដែលត្រូវបានប្រើនៅក្នុងការខិតខំប្រឹងប្រែងផ្នែកច្បាប់៖
- កម្រិត 0៖ គ្មានស្វ័យប្រវត្តិកម្មសម្រាប់ការងារផ្លូវច្បាប់ដែលមានមូលដ្ឋានលើ AI
- កម្រិតទី 1៖ ស្វ័យប្រវត្តិកម្មជំនួយសាមញ្ញសម្រាប់ការងារផ្លូវច្បាប់ដែលមានមូលដ្ឋានលើ AI
- កម្រិតទី 2៖ ស្វ័យប្រវត្តិកម្មជំនួយកម្រិតខ្ពស់សម្រាប់ការងារផ្លូវច្បាប់ដែលមានមូលដ្ឋានលើ AI
- កម្រិតទី 3៖ ស្វ័យប្រវត្តិកម្មពាក់កណ្តាលស្វយ័តសម្រាប់ការងារផ្លូវច្បាប់ដែលមានមូលដ្ឋានលើ AI
- កម្រិតទី 4៖ ដែនស្វ័យភាពសម្រាប់ការងារផ្នែកច្បាប់ដែលមានមូលដ្ឋានលើ AI
- កម្រិតទី 5៖ មានស្វ័យភាពពេញលេញសម្រាប់ការងារផ្នែកច្បាប់ដែលមានមូលដ្ឋានលើ AI
ខ្ញុំនឹងពណ៌នាដោយសង្ខេបនៅទីនេះ។
កម្រិត 0 ត្រូវបានចាត់ទុកថាគ្មានកម្រិតស្វ័យប្រវត្តិកម្ម។ ការវែកញែកផ្នែកច្បាប់ និងកិច្ចការច្បាប់ត្រូវបានអនុវត្តតាមវិធីសាស្រ្តដោយដៃ ហើយកើតឡើងជាចម្បងតាមរយៈវិធីសាស្រ្តផ្អែកលើក្រដាស។
កម្រិតទី 1 មានស្វ័យប្រវត្តិកម្មជំនួយសាមញ្ញសម្រាប់ហេតុផលផ្លូវច្បាប់ AI ។ ឧទាហរណ៍នៃប្រភេទនេះនឹងរួមបញ្ចូលការប្រើប្រាស់ការដំណើរការពាក្យដែលផ្អែកលើកុំព្យូទ័រប្រចាំថ្ងៃ ការប្រើប្រាស់សៀវភៅបញ្ជីដែលមានមូលដ្ឋានលើកុំព្យូទ័រប្រចាំថ្ងៃ ការចូលប្រើឯកសារផ្លូវច្បាប់តាមអ៊ីនធឺណិតដែលត្រូវបានរក្សាទុក និងទាញយកតាមអេឡិចត្រូនិកជាដើម។
កម្រិតទី 2 មានស្វ័យប្រវត្តិកម្មជំនួយកម្រិតខ្ពស់សម្រាប់ហេតុផលផ្លូវច្បាប់ AI ។ ឧទាហរណ៍នៃប្រភេទនេះនឹងរួមបញ្ចូលការប្រើប្រាស់ការដំណើរការភាសាធម្មជាតិមូលដ្ឋានតាមបែបសំណួរ (NLP) ធាតុសាមញ្ញនៃ Machine Learning (ML) ឧបករណ៍វិភាគស្ថិតិសម្រាប់ការទស្សន៍ទាយករណីផ្លូវច្បាប់។ល។
កម្រិតទី 3 មានស្វ័យប្រវត្តិកម្មពាក់កណ្តាលស្វយ័តសម្រាប់ហេតុផលផ្លូវច្បាប់ AI ។ ឧទាហរណ៍នៃប្រភេទនេះនឹងរួមបញ្ចូលការប្រើប្រាស់ប្រព័ន្ធផ្អែកលើចំណេះដឹងកម្រិតខ្ពស់ (KBS) សម្រាប់ហេតុផលផ្លូវច្បាប់ ការប្រើប្រាស់ Machine Learning និង Deep Learning (ML/DL) សម្រាប់ហេតុផលផ្លូវច្បាប់ NLP កម្រិតខ្ពស់ជាដើម។
កម្រិតទី 4 មានប្រព័ន្ធដែលមានមូលដ្ឋានលើកុំព្យូទ័រស្វ័យភាពដែនសម្រាប់ហេតុផលផ្លូវច្បាប់ AI ។ កម្រិតនេះប្រើឡើងវិញនូវគោលគំនិតនៃ Operational Design Domains (ODDs) ដូចដែលបានប្រើសម្រាប់រថយន្តដែលបើកបរដោយខ្លួនឯង ប៉ុន្តែដូចដែលបានអនុវត្តចំពោះដែនស្របច្បាប់។ ដែនច្បាប់អាចត្រូវបានចាត់ថ្នាក់តាមផ្នែកមុខងារដូចជា ច្បាប់គ្រួសារ ច្បាប់អចលនទ្រព្យ ច្បាប់ក្ស័យធន ច្បាប់បរិស្ថាន ច្បាប់ពន្ធជាដើម។
កម្រិតទី 5 មានប្រព័ន្ធកុំព្យូទ័រដែលមានស្វ័យភាពពេញលេញសម្រាប់ហេតុផលផ្លូវច្បាប់ AI ។ ក្នុងន័យមួយ កម្រិតទី 5 គឺជាកំពូលនៃកម្រិតទី 4 នៅក្នុងលក្ខខណ្ឌនៃការគ្របដណ្តប់លើដែនស្របច្បាប់ដែលអាចធ្វើបានទាំងអស់។ សូមដឹងថានេះជាលំដាប់ខ្ពស់ណាស់។
អ្នកអាចគិតគូរពីកម្រិតស្វ័យភាពទាំងនេះ ស្របជាមួយនឹងការប្រើប្រាស់ស្រដៀងគ្នា នៅពេលពិភាក្សាអំពីរថយន្តបើកបរដោយខ្លួនឯង និងរថយន្តស្វយ័ត (ផ្អែកលើស្តង់ដារ SAE ផ្លូវការផងដែរ សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ) យើងមិនទាន់មានរថយន្ត SAE Level 5 ដែលបើកបរដោយខ្លួនឯងនៅឡើយទេ។ យើងកំពុងឈានចូលទៅក្នុងរថយន្តបើកបរស្វ័យប្រវត្តិ SAE កម្រិត 4។ រថយន្តធម្មតាភាគច្រើនគឺនៅ SAE Level 2 ខណៈពេលដែលរថយន្តថ្មីមួយចំនួនកំពុងចូលទៅក្នុង SAE Level 3។
នៅក្នុងដែនស្របច្បាប់ យើងមិនទាន់មានកម្រិត 5 AILR នៅឡើយទេ។ យើងកំពុងឈានដល់កម្រិតទី 4 មួយចំនួន ទោះបីជានៅក្នុង ODDs តូចចង្អៀតខ្លាំងក៏ដោយ។ កម្រិតទី 3 កំពុងចាប់ផ្តើមមើលឃើញពន្លឺនៃថ្ងៃ ខណៈពេលដែលផ្នែកសំខាន់នៃ AILR ថ្ងៃនេះគឺនៅកម្រិត 2 ជាចម្បង។
អត្ថបទស្រាវជ្រាវថ្មីៗអំពី AI ដែលត្រូវបានអនុវត្តចំពោះច្បាប់នេះ បានបង្ហាញឱ្យឃើញការវាយអក្សរដែលគេស្គាល់ថាជា ច្បាប់ជូនដំណឹងអំពីក្រម។ អ្នកស្រាវជ្រាវបញ្ជាក់យ៉ាងដូច្នេះថា៖«គោលដៅចម្បងមួយរបស់ស ច្បាប់ជូនដំណឹងអំពីក្រម របៀបវារៈគឺបង្រៀន AI ឱ្យធ្វើតាមស្មារតីនៃច្បាប់” (John J. Nay, “Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Human”, ទិនានុប្បវត្តិ Northwestern នៃបច្ចេកវិទ្យា និងកម្មសិទ្ធិបញ្ញា, លេខ 20, នាពេលខាងមុខ) ។ មានការពិចារណាសំខាន់ៗមួយចំនួនដែល ស ច្បាប់ជូនដំណឹងអំពីក្រម Mantra បង្ហាញឡើង ហើយខ្ញុំនឹងណែនាំអ្នកតាមរយៈសិក្ខាបទសំខាន់ៗមួយចំនួន។
មុននឹងចូលទៅក្នុងប្រធានបទនេះ ខ្ញុំចង់ដាក់មូលដ្ឋានគ្រឹះសំខាន់ៗមួយចំនួនអំពី AI និងជាពិសេស AI Ethics និង AI Law ដើម្បីធ្វើដូច្នេះដើម្បីប្រាកដថាការពិភាក្សានឹងមានលក្ខណៈសមស្របតាមបរិបទ។
ការកើនឡើងនៃការយល់ដឹងអំពីក្រមសីលធម៌ AI និងច្បាប់ AI ផងដែរ។
យុគសម័យថ្មីនៃ AI ត្រូវបានគេមើលឃើញដំបូងថាជា អាយអេសដើម្បីភាពល្អមានន័យថា យើងអាចប្រើប្រាស់ AI សម្រាប់ភាពប្រសើរឡើងនៃមនុស្សជាតិ។ នៅលើកែងជើងរបស់ អាយអេសដើម្បីភាពល្អ មកការដឹងថាយើងត្រូវបានជ្រមុជក្នុងផងដែរ អាយអេសសម្រាប់អាក្រក់. នេះរាប់បញ្ចូលទាំង AI ដែលត្រូវបានបង្កើត ឬកែប្រែខ្លួនឯងទៅជាការរើសអើង និងធ្វើការជ្រើសរើសតាមការគណនាដែលបង្កប់នូវភាពលំអៀងដែលមិនសមហេតុផល។ ពេលខ្លះ AI ត្រូវបានបង្កើតឡើងតាមរបៀបនោះ ខណៈពេលដែលក្នុងករណីផ្សេងទៀត វាចូលទៅក្នុងទឹកដីដែលមិនឆ្ពោះទៅរកនោះ។
ខ្ញុំចង់ធ្វើឱ្យប្រាកដជាច្រើនថាយើងនៅលើទំព័រតែមួយអំពីលក្ខណៈនៃ AI សព្វថ្ងៃ។
មិនមាន AI ណាមួយដែលប្រកបដោយមនោសញ្ចេតនាទេ។ យើងមិនមាននេះទេ។ យើងមិនដឹងថាតើ AI អាចនឹងកើតឡើងឬអត់នោះទេ។ គ្មាននរណាម្នាក់អាចទស្សន៍ទាយបានច្បាស់ថា តើយើងនឹងសម្រេចបាន AI អារម្មណ៍ ឬថាតើ AI អារម្មណ៍នឹងកើតឡើងដោយអព្ភូតហេតុដោយឯកឯងក្នុងទម្រង់នៃ supernova នៃការយល់ដឹងតាមការគណនា (ជាទូទៅគេហៅថាឯកវចនៈ សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ).
ប្រភេទនៃ AI ដែលខ្ញុំកំពុងផ្តោតលើមាន AI ដែលមិនមានអារម្មណ៍ដែលយើងមានសព្វថ្ងៃនេះ។ ប្រសិនបើយើងចង់ស្មានទុកជាមុនអំពី AI ប្រកបដោយការយល់ឃើញ ការពិភាក្សានេះអាចទៅក្នុងទិសដៅខុសគ្នាខ្លាំង។ AI ដែលមានអារម្មណ៍ថានឹងមានគុណភាពមនុស្ស។ អ្នកនឹងត្រូវពិចារណាថា AI អារម្មណ៍គឺស្មើនឹងការយល់ដឹងរបស់មនុស្ស។ ជាងនេះទៅទៀត ដោយសារមានការស្មានខ្លះៗថា យើងប្រហែលជាមាន AI ដ៏វៃឆ្លាត ដែលអាចសន្និដ្ឋានបានថា AI បែបនេះអាចឆ្លាតជាងមនុស្សទៅទៀត (សម្រាប់ការរុករករបស់ខ្ញុំនូវ AI ដ៏ឆ្លាតវៃជាលទ្ធភាព សូមមើល ការគ្របដណ្តប់នៅទីនេះ).
ខ្ញុំសូមណែនាំយ៉ាងមុតមាំថាយើងរក្សាអ្វីៗនៅលើផែនដីហើយពិចារណាអំពីការគណនាមិនគិតពី AI នាពេលបច្ចុប្បន្ននេះ។
ត្រូវដឹងថា AI នាពេលបច្ចុប្បន្ននេះ មិនអាច "គិត" តាមរបៀបណាមួយបានដូចការគិតរបស់មនុស្សនោះទេ។ នៅពេលអ្នកប្រាស្រ័យទាក់ទងជាមួយ Alexa ឬ Siri សមត្ថភាពសន្ទនាអាចហាក់ដូចជាស្រដៀងនឹងសមត្ថភាពរបស់មនុស្ស ប៉ុន្តែការពិតគឺថាវាមានលក្ខណៈគណនា និងខ្វះការយល់ដឹងរបស់មនុស្ស។ យុគសម័យចុងក្រោយបង្អស់របស់ AI បានប្រើប្រាស់យ៉ាងទូលំទូលាយនូវ Machine Learning (ML) និង Deep Learning (DL) ដែលមានឥទ្ធិពលលើការផ្គូផ្គងលំនាំគណនា។ នេះបាននាំឱ្យមានប្រព័ន្ធ AI ដែលមានរូបរាងដូចមនុស្ស។ ទន្ទឹមនឹងនេះដែរ សព្វថ្ងៃនេះមិនមាន AI ណាមួយដែលមានលក្ខណៈសមហេតុសមផលទេ ហើយក៏មិនមានការងឿងឆ្ងល់នៃការយល់ដឹងនៃការគិតដ៏រឹងមាំរបស់មនុស្សដែរ។
សូមប្រយ័ត្នចំពោះ AI នាពេលបច្ចុប្បន្ននេះ។
ML/DL គឺជាទម្រង់នៃការផ្គូផ្គងលំនាំគណនា។ វិធីសាស្រ្តធម្មតាគឺអ្នកប្រមូលផ្តុំទិន្នន័យអំពីកិច្ចការធ្វើការសម្រេចចិត្ត។ អ្នកបញ្ចូលទិន្នន័យទៅក្នុងម៉ូដែលកុំព្យូទ័រ ML/DL ។ គំរូទាំងនោះស្វែងរកលំនាំគណិតវិទ្យា។ បន្ទាប់ពីស្វែងរកគំរូបែបនេះ ប្រសិនបើរកឃើញនោះ ប្រព័ន្ធ AI នឹងប្រើលំនាំទាំងនោះនៅពេលជួបទិន្នន័យថ្មី។ នៅពេលបង្ហាញទិន្នន័យថ្មី គំរូដែលផ្អែកលើ "ទិន្នន័យចាស់" ឬទិន្នន័យប្រវត្តិសាស្រ្តត្រូវបានអនុវត្តដើម្បីបង្ហាញការសម្រេចចិត្តបច្ចុប្បន្ន។
ខ្ញុំគិតថាអ្នកអាចទាយថាតើនេះកំពុងទៅណា។ ប្រសិនបើមនុស្សដែលបានបង្កើតគំរូតាមការសម្រេចចិត្តបានរួមបញ្ចូលការលំអៀងដែលមិនឆ្អែតឆ្អន់ នោះការខុសឆ្គងគឺថាទិន្នន័យបានឆ្លុះបញ្ចាំងពីចំណុចនេះតាមវិធីស្រាលៗ ប៉ុន្តែសំខាន់។ ការផ្គូផ្គងគំរូការសិក្សាតាមម៉ាស៊ីន ឬការរៀនជ្រៅនឹងព្យាយាមធ្វើត្រាប់តាមទិន្នន័យតាមគណិតវិទ្យា។ មិនមានភាពដូចគ្នានៃសុភវិនិច្ឆ័យ ឬទិដ្ឋភាពមនោសញ្ចេតនាផ្សេងទៀតនៃការបង្កើតគំរូដែលបង្កើតដោយ AI ក្នុងមួយ។
ជាងនេះទៅទៀត អ្នកអភិវឌ្ឍន៍ AI ប្រហែលជាមិនដឹងពីអ្វីដែលកំពុងកើតឡើងនោះទេ។ គណិតវិទ្យា arcane នៅក្នុង ML/DL អាចធ្វើឱ្យវាពិបាកក្នុងការបំបាត់ភាពលំអៀងដែលលាក់នៅពេលនេះ។ អ្នកនឹងសង្ឃឹមយ៉ាងត្រឹមត្រូវ ហើយរំពឹងថាអ្នកអភិវឌ្ឍន៍ AI នឹងសាកល្បងសម្រាប់ភាពលំអៀងដែលអាចកប់បាន ទោះបីជាវាពិបាកជាងវាក៏ដោយ។ ឱកាសដ៏រឹងមាំមួយមានដែលថា ទោះបីជាមានការសាកល្បងយ៉ាងទូលំទូលាយថានឹងមានភាពលំអៀងនៅតែបង្កប់នៅក្នុងគំរូដែលត្រូវគ្នានឹងគំរូនៃ ML/DL ក៏ដោយ។
អ្នកអាចប្រើសុភាសិតដ៏ល្បីឬមិនល្អខ្លះនៃការចោលសំរាមក្នុងធុងសំរាម។ រឿងនោះគឺថា នេះគឺស្រដៀងទៅនឹងភាពលំអៀងដែលបញ្ចូលទៅក្នុង insidiously ដូចជាភាពលំអៀងដែលលិចចូលទៅក្នុង AI ។ ក្បួនដោះស្រាយការសម្រេចចិត្ត (ADM) នៃ AI axiomatically ក្លាយជាបន្ទុកដោយភាពមិនស្មើគ្នា។
មិនល្អ។
ទាំងអស់នេះមានផលប៉ះពាល់យ៉ាងសំខាន់ AI Ethics និងផ្តល់នូវបង្អួចងាយស្រួលចូលទៅក្នុងមេរៀនដែលបានរៀន (សូម្បីតែមុនពេលមេរៀនទាំងអស់កើតឡើង) នៅពេលនិយាយអំពីការព្យាយាមបង្កើតច្បាប់ AI ។
ក្រៅពីការប្រើប្រាស់ច្បាប់សីលធម៌ AI ជាទូទៅ មានសំណួរដែលត្រូវគ្នាថាតើយើងគួរតែមានច្បាប់ដើម្បីគ្រប់គ្រងការប្រើប្រាស់ផ្សេងៗនៃ AI ដែរឬទេ។ ច្បាប់ថ្មីកំពុងត្រូវបានដាក់ពង្រាយនៅកម្រិតសហព័ន្ធ រដ្ឋ និងមូលដ្ឋាន ដែលទាក់ទងនឹងជួរ និងលក្ខណៈនៃរបៀបដែល AI គួរតែត្រូវបានបង្កើត។ ការខិតខំធ្វើសេចក្តីព្រាង និងអនុម័តច្បាប់បែបនេះជាបណ្តើរៗ។ ក្រមសីលធម៌ AI ដើរតួជាគម្លាតដែលត្រូវបានពិចារណា យ៉ាងហោចណាស់ ហើយស្ទើរតែនឹងប្រាកដក្នុងកម្រិតខ្លះត្រូវបានដាក់បញ្ចូលទៅក្នុងច្បាប់ថ្មីទាំងនោះ។
ត្រូវដឹងថាមានអ្នកខ្លះប្រកែកយ៉ាងម៉ឺងម៉ាត់ថាយើងមិនត្រូវការច្បាប់ថ្មីដែលគ្របដណ្ដប់លើ AI ហើយថាច្បាប់ដែលមានស្រាប់របស់យើងគឺគ្រប់គ្រាន់ហើយ។ ពួកគេបានព្រមានថា ប្រសិនបើយើងអនុវត្តច្បាប់ AI មួយចំនួននេះ យើងនឹងសម្លាប់សត្វពពែមាស ដោយកាត់បន្ថយភាពជឿនលឿននៃ AI ដែលផ្តល់អត្ថប្រយោជន៍យ៉ាងច្រើនដល់សង្គម។
នៅក្នុងជួរមុន ខ្ញុំបានរៀបរាប់អំពីកិច្ចខិតខំប្រឹងប្រែងជាតិ និងអន្តរជាតិផ្សេងៗ ដើម្បីបង្កើត និងអនុម័តច្បាប់គ្រប់គ្រង AI សូមមើល តំណភ្ជាប់នៅទីនេះ, ឧទាហរណ៍។ ខ្ញុំក៏បានគ្របដណ្តប់លើគោលការណ៍ និងគោលការណ៍ណែនាំអំពីក្រមសីលធម៌ AI ជាច្រើនដែលប្រជាជាតិនានាបានកំណត់ និងអនុម័ត រួមទាំងឧទាហរណ៍ការខិតខំប្រឹងប្រែងរបស់អង្គការសហប្រជាជាតិដូចជា UNESCO កំណត់ក្រមសីលធម៌ AI ដែលប្រទេសជិត 200 បានអនុម័ត។ តំណភ្ជាប់នៅទីនេះ.
នេះគឺជាបញ្ជីគន្លឹះដ៏មានប្រយោជន៍នៃលក្ខណៈវិនិច្ឆ័យ AI សីលធម៌ ឬលក្ខណៈទាក់ទងនឹងប្រព័ន្ធ AI ដែលខ្ញុំបានស្វែងរកយ៉ាងជិតស្និទ្ធពីមុនមក៖
- តម្លាភាព
- យុត្តិធម៌ និងយុត្តិធម៌
- ភាពមិនអាក្រក់
- ការទទួលខុសត្រូវ
- ភាពឯកជន
- អត្ថប្រយោជន៍
- សេរីភាព និងស្វ័យភាព
- ការជឿទុកចិត្ត
- និរន្តរភាព
- សេចក្តីថ្លៃថ្នូរ
- សាមគ្គីភាព
គោលការណ៍ក្រមសីលធម៌ AI ទាំងនោះត្រូវបានគេសន្មត់ថាប្រើប្រាស់ដោយស្មោះស្ម័គ្រដោយអ្នកអភិវឌ្ឍន៍ AI រួមជាមួយនឹងអ្នកដែលគ្រប់គ្រងកិច្ចខិតខំប្រឹងប្រែងអភិវឌ្ឍន៍ AI និងសូម្បីតែអ្នកដែលនៅទីបំផុតអនុវត្ត និងថែរក្សាប្រព័ន្ធ AI ។
អ្នកពាក់ព័ន្ធទាំងអស់នៅទូទាំងវដ្តជីវិត AI នៃការអភិវឌ្ឍន៍ និងការប្រើប្រាស់ត្រូវបានចាត់ទុកថាស្ថិតក្នុងវិសាលភាពនៃការគោរពតាមបទដ្ឋានដែលត្រូវបានបង្កើតឡើងនៃ Ethical AI ។ នេះគឺជាការគូសបញ្ជាក់ដ៏សំខាន់មួយចាប់តាំងពីការសន្មត់ធម្មតាគឺថា "មានតែអ្នកសរសេរកូដ" ឬអ្នកដែលកម្មវិធី AI ប៉ុណ្ណោះដែលត្រូវប្រកាន់ខ្ជាប់នូវគោលគំនិតសីលធម៌របស់ AI ។ ដូចដែលបានសង្កត់ធ្ងន់ពីមុនមក វាត្រូវការភូមិមួយដើម្បីរៀបចំ និងអនុវត្ត AI ហើយភូមិទាំងមូលត្រូវតែគោរព និងគោរពតាមសិក្ខាបទ AI ។
ថ្មីៗនេះខ្ញុំក៏បានពិនិត្យ វិក័យប័ត្រនៃសិទ្ធិ AI ដែលជាចំណងជើងផ្លូវការនៃឯកសារផ្លូវការរបស់រដ្ឋាភិបាលសហរដ្ឋអាមេរិកដែលមានចំណងជើងថា "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" ដែលជាលទ្ធផលនៃកិច្ចខិតខំប្រឹងប្រែងរយៈពេលមួយឆ្នាំដោយការិយាល័យគោលនយោបាយវិទ្យាសាស្ត្រ និងបច្ចេកវិទ្យា (OSTP ) OSTP គឺជាអង្គភាពសហព័ន្ធដែលបម្រើការផ្តល់ប្រឹក្សាដល់ប្រធានាធិបតីអាមេរិក និងការិយាល័យប្រតិបត្តិរបស់សហរដ្ឋអាមេរិកអំពីទិដ្ឋភាពបច្ចេកវិទ្យា វិទ្យាសាស្ត្រ និងវិស្វកម្មផ្សេងៗនៃសារៈសំខាន់ជាតិ។ ក្នុងន័យនេះ អ្នកអាចនិយាយបានថា Bill of Rights របស់ AI នេះគឺជាឯកសារដែលត្រូវបានអនុម័ត និងយល់ព្រមដោយសេតវិមានអាមេរិកដែលមានស្រាប់។
នៅក្នុង AI Bill of Rights មាន XNUMX ប្រភេទសំខាន់ៗដូចជា៖
- ប្រព័ន្ធសុវត្ថិភាព និងមានប្រសិទ្ធភាព
- ការការពារការរើសអើងជាក្បួន
- ភាពឯកជនទិន្នន័យ
- សេចក្តីជូនដំណឹង និងការពន្យល់
- ជម្មើសជំនួសរបស់មនុស្ស ការពិចារណា និងការថយក្រោយ
ខ្ញុំបានពិនិត្យដោយប្រុងប្រយ័ត្ននូវសិក្ខាបទទាំងនោះ តំណភ្ជាប់នៅទីនេះ.
ឥឡូវនេះខ្ញុំបានដាក់មូលដ្ឋានគ្រឹះដ៏មានប្រយោជន៍លើប្រធានបទ AI Ethics និង AI Law ដែលពាក់ព័ន្ធទាំងនេះ ពួកយើងបានត្រៀមខ្លួនរួចជាស្រេចដើម្បីចូលទៅក្នុងប្រធានបទសំខាន់នៃ AI Legal-checkers និងអាណាចក្រនៃ ច្បាប់ជូនដំណឹងអំពីក្រម.
AI Legal Double-Checkers បង្កប់ក្នុង AI សម្រាប់ការតម្រឹមតម្លៃមនុស្ស
ពេលខ្លះខ្ញុំសំដៅទៅលើ AI អ្នកត្រួតពិនិត្យទ្វេដងផ្នែកច្បាប់ តាមរយៈអក្សរកាត់នៃ AI-LDC ។ នេះជាការរំខានបន្តិចសម្រាប់អ្នកដែលមិនស្គាល់អក្សរកាត់។ ដូច្នេះហើយ ខ្ញុំនឹងមិនប្រើអក្សរកាត់ពិសេសនេះនៅក្នុងការពិភាក្សានេះទេ ប៉ុន្តែចង់រៀបរាប់វាជូនអ្នកជាបឋម។
ដើម្បីស្រាយនូវភាពស្មុគស្មាញមួយចំនួននៃ AI Legal double-checkers សូមដោះស្រាយចំណុចសំខាន់ៗទាំងនេះ៖
- ការប្រើប្រាស់ AI Legal double-checkers ជាយន្តការតម្រឹមតម្លៃមនុស្ស AI
- AI កាន់តែទូលំទូលាយនឹងតម្រូវឱ្យអ្នកត្រួតពិនិត្យពីរដងផ្លូវច្បាប់ AI រឹងមាំជាងមុន
- AI Legal-checkers អនុវត្តច្បាប់ ហើយគួរឱ្យកត់សម្គាល់ថាមិនបង្កើតច្បាប់ (សន្មត)
- តុល្យភាពល្អរវាង AI តំណាងផ្នែកច្បាប់នៃច្បាប់ជាក្បួនធៀបនឹងស្តង់ដារ
- ទាមទារភស្តុតាងនៃ pudding នៅពេលដែលវាមកដល់ AI គោរពតាមច្បាប់
ដោយសារតែមានឧបសគ្គក្នុងលំហ ខ្ញុំនឹងលើកយកចំណុចទាំងប្រាំនេះសម្រាប់ពេលនេះ ទោះបីយ៉ាងណា សូមរង់ចាំតាមដានបន្ថែមទៀតនៅក្នុងជួររបស់ខ្ញុំ ដែលគ្របដណ្តប់លើការពិចារណាបន្ថែម និងគួរកត់សម្គាល់ស្មើៗគ្នាលើបញ្ហាដែលកំពុងវិវត្ត និងឆ្ពោះទៅមុខយ៉ាងឆាប់រហ័សទាំងនេះ។
ឥឡូវនេះ សូមភ្ជាប់ខ្សែក្រវាត់របស់អ្នក ហើយត្រៀមខ្លួនសម្រាប់ដំណើរដ៏រីករាយ។
- ការប្រើប្រាស់ AI Legal double-checkers ជាយន្តការតម្រឹមតម្លៃមនុស្ស AI
មានវិធីជាច្រើនដើម្បីព្យាយាម និងសម្រេចបាននូវការតម្រឹមចុះសម្រុងគ្នារវាង AI និងតម្លៃរបស់មនុស្ស។
ដូចដែលបានរៀបរាប់ពីមុន យើងអាចផលិត និងផ្សព្វផ្សាយសិក្ខាបទក្រមសីលធម៌ AI និងស្វែងរកអ្នកអភិវឌ្ឍន៍ AI និងអ្នកដែលមានជំនាញ និងប្រតិបត្តិការ AI ដើម្បីគោរពតាមគន្លឺះទាំងនោះ។ ជាអកុសល នេះតែម្នាក់ឯងនឹងមិនធ្វើល្បិចនោះទេ។ អ្នកមានអ្នករៀបចំមួយចំនួនដែលជៀសមិនរួចនឹងមិនទទួលបានសារ។ អ្នកមានអ្នកចូលរួមមួយចំនួនដែលនឹងបង្ហាញពីក្រមសីលធម៌ AI និងព្យាយាមគេចពីគោលការណ៍កំណត់ដែលមានលក្ខណៈធូររលុង។ លល។
ការប្រើប្រាស់វិធីសាស្រ្ត "ច្បាប់ទន់" ដែលរួមបញ្ចូលក្រមសីលធម៌ AI ត្រូវតែត្រូវបានផ្គូផ្គងស្ទើរតែមិនអាចកាត់ថ្លៃបានជាមួយនឹងមធ្យោបាយ "ច្បាប់រឹង" ដូចជាការអនុម័តច្បាប់ និងបទប្បញ្ញត្តិដែលនឹងបញ្ជូនសញ្ញាដ៏ខ្លាំងក្លាទៅកាន់អ្នកដែលបង្កើត ឬប្រើប្រាស់ AI ។ ដៃវែងនៃច្បាប់អាចនឹងមករកអ្នក ប្រសិនបើអ្នកមិនប្រើប្រាស់ AI ដោយយុត្តិធម៌។ សំឡេងទ្វារគុកគាំងអាចទាក់ទាញចំណាប់អារម្មណ៍យ៉ាងខ្លាំង។
បញ្ហាធំមួយគឺថាពេលខ្លះទ្វារជង្រុកបានអនុញ្ញាតឱ្យសេះចេញហើយអំពី។ AI ដែលត្រូវបានដាក់ឱ្យដំណើរការនឹងមានសក្តានុពលផលិតនូវអំពើខុសច្បាប់គ្រប់បែបយ៉ាង ហើយបន្តធ្វើរហូតដល់មិនត្រឹមតែចាប់បានប៉ុណ្ណោះទេ ប៉ុន្តែក៏នៅពេលដែលការអនុវត្តច្បាប់មួយចំនួនឈានដល់ដំណាក់កាលចុងក្រោយដើម្បីរារាំងលំហូរនៃសកម្មភាពខុសច្បាប់។ ទាំងអស់នេះអាចចំណាយពេល។ ទន្ទឹមនឹងនេះដែរ មនុស្សកំពុងទទួលរងគ្រោះថ្នាក់ក្នុងទម្រង់មួយ ឬបែបផ្សេងទៀត។
ចូលទៅក្នុងវេទិកានេះមក AI Legal double-checker ។
តាមរយៈការរស់នៅក្នុងកម្មវិធី AI អ្នកត្រួតពិនិត្យទ្វេដងនៃច្បាប់ AI អាចរកឃើញភ្លាមៗនៅពេលដែល AI ហាក់ដូចជាកំពុងដំណើរការខុសនឹងច្បាប់។ អ្នកត្រួតពិនិត្យទ្វេដង AI Legal អាចនឹងបញ្ឈប់ AI នៅក្នុងផ្លូវរបស់វា។ ឬធាតុផ្សំនេះអាចជូនដំណឹងដល់មនុស្សអំពីសកម្មភាពខុសច្បាប់ដែលគេយល់ឃើញ ដោយធ្វើដូច្នេះបានទាន់ពេលវេលា ដែលអាចជំរុញឱ្យអ្នកត្រួតពិនិត្យចាត់វិធានការកែតម្រូវជាបន្ទាន់។ វាក៏មានការកត់ត្រាជាផ្លូវការដែលត្រូវបានចាត់ទុកថាជាធាតុផ្សំដែលអាចបង្កើតបាន ដោយផ្តល់នូវរូបរាងជាក់ស្តែងនៃផ្លូវសវនកម្មសម្រាប់គោលបំណងនៃការសរសេរកូដសកម្មភាពអវិជ្ជមានរបស់ AI ។
ច្បាប់របស់យើងត្រូវបានគេនិយាយថាជាទម្រង់នៃការប្រមូលផ្តុំពហុភ្នាក់ងារ ដែលច្បាប់ជៀសមិនរួចគឺជាល្បាយនៃអ្វីដែលសង្គមបានស្វែងរកដើម្បីដាក់ឱ្យមានតុល្យភាពក្នុងចំណោមទស្សនៈដែលទំនងជាផ្ទុយគ្នានៃអាកប្បកិរិយាសង្គមត្រឹមត្រូវ និងមិនត្រឹមត្រូវ។ ដូច្នេះ អ្នកត្រួតពិនិត្យពីរដងផ្លូវច្បាប់ AI ផ្អែកលើច្បាប់របស់យើងកំពុងបញ្ចូលល្បាយនោះ។
គួរកត់សម្គាល់ថា នេះគឺលើសពីការសរសេរកម្មវិធីបញ្ជីច្បាប់ច្បាស់លាស់។ ច្បាប់មានទំនោរអាចបត់បែនបាន និងខិតខំឆ្ពោះទៅរកស្តង់ដារត្រួតត្រា ជាជាងការបញ្ជាក់អំពីនាទីភាគច្រើននៃច្បាប់មីក្រូទស្សន៍។ ភាពស្មុគស្មាញមានច្រើន។
ត្រលប់ទៅឯកសារស្រាវជ្រាវដែលបានកត់សម្គាល់មុននេះ នេះជារបៀបដែលការពិចារណាទាំងនេះក៏អាចត្រូវបានមើលផងដែរ ទាក់ទងនឹងការស្វែងរកតម្រឹម AI៖ "ច្បាប់ ទស្សនវិជ្ជាអនុវត្តនៃការតម្រឹមភ្នាក់ងារចម្រុះ បំពេញនូវលក្ខណៈវិនិច្ឆ័យទាំងនេះដោយឡែក។ ការតម្រឹមគឺជាបញ្ហាព្រោះយើងមិនអាច អតីត ante បញ្ជាក់ច្បាប់ដែលដឹកនាំឥរិយាបថ AI ល្អយ៉ាងពេញលេញ និងជាក់ស្តែង។ ដូចគ្នានេះដែរ ភាគីនៃកិច្ចសន្យាផ្លូវច្បាប់មិនអាចទាយទុកជាមុននូវរាល់ភាពជាប់គាំងនៃទំនាក់ទំនងរបស់ពួកគេទេ ហើយអ្នកតាក់តែងច្បាប់មិនអាចទស្សន៍ទាយពីកាលៈទេសៈជាក់លាក់ដែលច្បាប់របស់ពួកគេនឹងត្រូវបានអនុវត្តនោះទេ។ នោះហើយជាមូលហេតុដែលច្បាប់ភាគច្រើនគឺជាក្រុមតារានិករនៃស្តង់ដារ” (ibid) ។
ការបញ្ចូលច្បាប់ទៅក្នុង AI Legal double-checker គឺមានការលំបាកច្រើនជាងអ្វីដែលអ្នកគិតដំបូង។
នៅពេលដែល AI រីកចម្រើន យើងនឹងត្រូវការបង្កើនភាពជឿនលឿនបែបនេះទៅតាមនោះ។ ប្រែថាអ្វីដែលល្អសម្រាប់ goose ក៏ល្អសម្រាប់ gander ផងដែរ។ ពួកយើងទាំងឡាយដែលធ្វើវឌ្ឍនភាពនៅក្នុង AI ដូចដែលបានអនុវត្តចំពោះច្បាប់កំពុងជំរុញស្រោមសំបុត្រលើ AI និងបង្កើតភាពជឿនលឿនថ្មីដោយមិនចេះអត់ធ្មត់ ដែលទីបំផុតអាចបញ្ចូលទៅក្នុងដំណើរការ AI ទាំងអស់គ្នា។
- AI កាន់តែទូលំទូលាយនឹងតម្រូវឱ្យអ្នកត្រួតពិនិត្យពីរដងផ្លូវច្បាប់ AI រឹងមាំជាងមុន
ល្បែងឆ្មា និងកណ្តុរប្រឈមមុខនឹងប្រធានបទនេះ។
ឱកាសគឺថានៅពេលដែល AI កាន់តែមានភាពជឿនលឿនបន្ថែមទៀត សមាសធាតុត្រួតពិនិត្យទ្វេដងរបស់ AI ណាមួយនឹងស្វែងរកបញ្ហាកាន់តែពិបាក និងពិបាកដោះស្រាយ។ ជាឧទាហរណ៍ កម្មវិធី AI ដែលកំពុងត្រូវបានពិនិត្យ ប្រហែលជាបានរៀបចំវិធីថ្មីស្រឡាងដើម្បីលាក់សកម្មភាពខុសច្បាប់ដែល AI កំពុងធ្វើ។ បើទោះបីជា AI មិនទទួលយកផ្លូវមិនច្បាស់លាស់ក៏ដោយ ភាពស្មុគស្មាញទាំងមូលនៃ AI អាចជាឧបសគ្គដ៏គួរឱ្យភ័យខ្លាចសម្រាប់ការស្វែងរកការវាយតម្លៃអ្នកត្រួតពិនិត្យពីរដងផ្នែកច្បាប់របស់ AI ។
នេះជារបៀបដែលវាក្លាយជាមានសារៈសំខាន់ជាពិសេស។
ឧបមាថាអ្នកអភិវឌ្ឍន៍ AI ឬក្រុមហ៊ុនមួយចំនួនដែលប្រើប្រាស់ AI ប្រកាសថាមាន AI Legal double-checker ដែលត្រូវបានបញ្ចូលទៅក្នុងកម្មវិធីដែលមានមូលដ្ឋានលើ AI ។ វីឡា ពេលនេះពួកគេហាក់បីដូចជាបានលាងដៃអស់កង្វល់ទៀតហើយ។ អ្នកត្រួតពិនិត្យទ្វេដង AI Legal នឹងថែរក្សាអ្វីៗគ្រប់យ៉ាង។
មិនដូច្នេះទេ។
អ្នកត្រួតពិនិត្យពីរដងផ្លូវច្បាប់ AI ប្រហែលជាមិនគ្រប់គ្រាន់សម្រាប់លក្ខណៈនៃកម្មវិធី AI ដែលពាក់ព័ន្ធនោះទេ។ វាក៏មានលទ្ធភាពផងដែរដែល AI Legal double-checker ក្លាយជាហួសសម័យ ប្រហែលជាមិនត្រូវបានធ្វើបច្ចុប្បន្នភាពជាមួយនឹងច្បាប់ចុងក្រោយបំផុតទាក់ទងនឹងកម្មវិធី AI នោះទេ។ ហេតុផលមួយចំនួនអាចត្រូវបានគេមើលឃើញថាហេតុអ្វីបានជាវត្តមានរបស់អ្នកត្រួតពិនិត្យពីរដងផ្នែកច្បាប់ AI នឹងមិនមែនជាគ្រាប់កាំភ្លើងទេ។
ពិចារណាលើការយល់ដឹងទាំងនេះដោយការស្រាវជ្រាវដែលបានលើកឡើងមុននេះ៖ "ក្នុងនាមជាទំនើបកម្មសម្រាប់ភាពជឿនលឿននៃ AI យើងអាចកំណត់របារកម្រិតខ្ពស់នៃសមត្ថភាពយល់ដឹងផ្នែកច្បាប់ដែលបានបង្ហាញឱ្យឃើញ។ ប្រសិនបើអ្នកអភិវឌ្ឍន៍អះអាងថាប្រព័ន្ធរបស់ពួកគេមានសមត្ថភាពជឿនលឿនលើកិច្ចការ ពួកគេគួរតែបង្ហាញពីការយល់ដឹងផ្នែកច្បាប់កម្រិតខ្ពស់ដែលត្រូវគ្នា និងសមត្ថភាពសមហេតុផលផ្នែកច្បាប់នៃ AI ដែលជាក់ស្តែងមិនមានការលំបាកអ្វីឡើយ នៅពេលពិចារណាលើភាពច្របូកច្របល់នៃច្បាប់ និងបទប្បញ្ញត្តិតាមពេលវេលា គំរូ និងយុត្តាធិការ។ ” (ibid) ។
- AI Legal-checkers អនុវត្តច្បាប់ ហើយគួរឱ្យកត់សម្គាល់ថាមិនបង្កើតច្បាប់ (សន្មត)
ខ្ញុំប្រាកដថាអ្នកខ្លះមានការខឹងសម្បារចំពោះគំនិតដែលមានអ្នកត្រួតពិនិត្យផ្លូវច្បាប់ AI ទាំងនេះ។
ការព្រួយបារម្ភមួយដែលបញ្ចេញជាញឹកញាប់គឺថា យើងនឹងអនុញ្ញាតឱ្យ AI សម្រេចចិត្តច្បាប់របស់យើងសម្រាប់យើង។ ព្រះជាម្ចាស់ល្អ អ្នកប្រហែលជាកំពុងគិត គ្រឿងស្វ័យប្រវត្តិកម្មមួយចំនួននឹងវ៉ាដាច់មនុស្សជាតិ។ អ្នកត្រួតពិនិត្យពីរដងផ្នែកច្បាប់ដែលបង្កប់ដោយ AI ទាំងនោះនឹងក្លាយជាស្តេចលំនាំដើមនៃច្បាប់របស់យើង។ អ្វីដែលគេធ្វើនឹងក្លាយទៅជាច្បាប់។
មនុស្សនឹងត្រូវគ្រប់គ្រងដោយ AI ។
ហើយ AI Legal-checkers ទាំងនេះគឺជាជម្រាលរអិលដែលនាំយើងទៅទីនោះ។
ទឡ្ហីករណ៍មួយគឺថាការនិយាយបែបនេះគឺជាវត្ថុនៃទ្រឹស្តីសមគំនិត។ អ្នកកំពុងរៀបចំខ្លួនយ៉ាងសាហាវ ហើយធ្វើឱ្យខ្លួនឯងមានភាពច្របូកច្របល់។ ការពិតគឺថា AI Legal-checkers ទាំងនេះមិនមានការយល់ចិត្តទេ ពួកគេនឹងមិនកាន់កាប់ភពផែនដីនោះទេ ហើយការនិយាយបំផ្លើសអំពីហានិភ័យអត្ថិភាពរបស់ពួកគេគឺមានលក្ខណៈធម្មតា និងហួសកម្រិត។
សរុបមក ដោយនៅសេសសល់ជាមួយនឹងឥរិយាបថស្ងប់ស្ងាត់ និងហេតុផល យើងត្រូវចាំថា AI Legal-checkers ពីរដងបម្រើដើម្បីឆ្លុះបញ្ចាំងពីច្បាប់យ៉ាងត្រឹមត្រូវ មិនមែនដោយការរចនា និងដោយចៃដន្យនោះទេ បន្តទៅកាន់លំនាំដើមណាមួយទៅក្នុងវិស័យដែលគួរឱ្យគោរព។ ច្បាប់។ ដោយទុកចោលការបូកសរុបនៃប្រយោគ យើងពិតជាអាចយល់ស្របថាមានការព្រួយបារម្ភពិតប្រាកដ និងជាបន្ទាន់ដែលអ្នកត្រួតពិនិត្យពីរដងផ្នែកច្បាប់ AI អាចនឹងបញ្ចប់ការបកស្រាយខុសអំពីលក្ខណៈពិតនៃច្បាប់ដែលបានផ្តល់ឱ្យ។
នៅក្នុងវេន អ្នកអាចអះអាងថា ដូច្នេះច្បាប់ "បំភាន់" ជាក់លាក់នោះ នឹងត្រូវបង្កើតឡើងវិញជាចាំបាច់ ព្រោះវាលែងមានសញ្ញាត្រឹមត្រូវអំពីអ្វីដែលបានកំណត់ដោយច្បាប់ពិតប្រាកដ។ ខ្ញុំជឿជាក់ថា អ្នកអាចមើលឃើញដោយត្រង់ថា នេះជាការស្រពិចស្រពិល ប៉ុន្តែប្រាប់ពីការពិចារណា។ នៅពេលណាមួយ អ្នកត្រួតពិនិត្យពីរដងផ្នែកច្បាប់របស់ AI អាចផ្អែកលើមូលដ្ឋាននិម្មិតដោយបង្កើត ឬយើងនឹងនិយាយថា "បំភាន់" ច្បាប់ថ្មីដោយវិធីដែលសមាសធាតុ AI កំពុងបកស្រាយច្បាប់ដូចដែលបានបញ្ជាក់ដំបូង ឬបញ្ចូលក្នុង AI (សម្រាប់ការគ្របដណ្តប់របស់ខ្ញុំ នៃ AI ដែលគេហៅថា ភាពមមាញឹកសូមមើល តំណភ្ជាប់នៅទីនេះ).
ការយកចិត្តទុកដាក់លើបញ្ហានេះត្រូវតែអនុវត្តយ៉ាងតឹងរ៉ឹង។
លើប្រធានបទនេះ ការសិក្សាស្រាវជ្រាវដែលបានរៀបរាប់ខាងលើផ្តល់នូវគំនិតស្របគ្នានេះ ទាក់ទងនឹងការស្វែងរកដើម្បីជៀសវាងការឆ្លងផុតបន្ទាត់ដ៏ពិសិដ្ឋនោះ៖ “យើងមិនមានបំណងឱ្យ AI មានភាពស្របច្បាប់ក្នុងការបង្កើតច្បាប់ កំណត់ច្បាប់ជាមុន ឬអនុវត្តច្បាប់នោះទេ។ តាមពិត វានឹងធ្វើឱ្យខូចដល់វិធីសាស្រ្តរបស់យើង (ហើយយើងគួរតែវិនិយោគការខិតខំប្រឹងប្រែងយ៉ាងសំខាន់ក្នុងការទប់ស្កាត់វា)។ ផ្ទុយទៅវិញ គោលដៅដែលមានមហិច្ឆតាបំផុតនៃច្បាប់ផ្តល់ព័ត៌មានគឺការអ៊ិនកូដដោយការគណនា និងបង្កប់នូវភាពអាចយល់បានទូទៅនៃគំនិត និងស្តង់ដារច្បាប់ដែលមានស្រាប់ទៅក្នុងការអនុវត្ត AI ដែលមានសុពលភាព” (ibid)។
- តុល្យភាពល្អរវាង AI តំណាងផ្នែកច្បាប់នៃច្បាប់ជាក្បួនធៀបនឹងស្តង់ដារ
ច្បាប់មានភាពរញ៉េរញ៉ៃ។
ចំពោះច្បាប់ណាមួយនៅលើសៀវភៅ ទំនងជាមានការបកស្រាយច្រើនអំពីអ្វីដែលច្បាប់ចែងក្នុងការអនុវត្តជាក់ស្តែង។ នៅក្នុងការប្រៀបធៀបនៃវិស័យ AI យើងសំដៅទៅលើច្បាប់ថាមានភាពមិនច្បាស់លាស់តាមន័យធៀប។ នោះហើយជាអ្វីដែលធ្វើឱ្យការអភិវឌ្ឍន៍ AI ដែលត្រូវបានអនុវត្តចំពោះច្បាប់នេះ មានភាពរំភើបរីករាយ និងមានការប្រឈមក្នុងពេលដំណាលគ្នាផងដែរ។ មិនដូចការបំបែកលេខច្បាស់លាស់ដែលអ្នកប្រហែលជាឃើញសម្រាប់កម្មវិធី AI ដែលផ្តោតលើផ្នែកហិរញ្ញវត្ថុ បំណងប្រាថ្នាក្នុងការបញ្ចូលច្បាប់របស់យើងទៅក្នុង AI រួមបញ្ចូលការដោះស្រាយជាមួយនឹងរលកយក្សស៊ូណាមិនៃភាពមិនច្បាស់លាស់នៃអត្ថន័យ។
នៅក្នុងសៀវភៅមូលដ្ឋានគ្រឹះរបស់ខ្ញុំស្តីពីមូលដ្ឋានគ្រឹះនៃ AI Legal Reasoning (AILR) ខ្ញុំបានពិភាក្សាអំពីរបៀបដែលការប៉ុនប៉ងពីមុនមកដោយគ្រាន់តែសរសេរកូដច្បាប់ទៅក្នុងសំណុំនៃច្បាប់ដែលមានព្រំប្រទល់មិនទទួលបានយើងដូចដែលយើងចង់ចូលទៅក្នុងដែនច្បាប់ (សូមមើល តំណភ្ជាប់នៅទីនេះ) AILR នាពេលបច្ចុប្បន្ននេះ ត្រូវតែរួមបញ្ចូលការរួមបញ្ចូលរវាងការប្រើប្រាស់ច្បាប់ និងអ្វីដែលអាចហៅថាស្តង់ដារត្រួតត្រា ដែលច្បាប់តំណាងឱ្យ។
សមតុល្យដ៏សំខាន់នេះអាចត្រូវបានបង្ហាញនៅក្នុងរបៀបនេះ៖ "នៅក្នុងការអនុវត្ត ច្បាប់ភាគច្រើនបានទៅដល់កន្លែងណាមួយនៅលើវិសាលគមរវាងច្បាប់សុទ្ធ និងស្តង់ដារសុទ្ធ ហើយទ្រឹស្ដីច្បាប់អាចជួយប៉ាន់ប្រមាណការរួមបញ្ចូលគ្នាត្រឹមត្រូវនៃ "នីតិរដ្ឋ" និង "ស្តង់ដារ" ។ នៅពេលបញ្ជាក់គោលបំណងនៃប្រព័ន្ធ AI” (ibid) ។
- ទាមទារភស្តុតាងនៃ pudding នៅពេលដែលវាមកដល់ AI គោរពតាមច្បាប់
ចង់បានអ្វីខុសពីការចង់បាន។
ប្រាជ្ញាមួយចំនួនបានកើតឡើងនៅពេលដែលយើងចង់មានអ្នកត្រួតពិនិត្យផ្លូវច្បាប់ AI ក៏ដោយ យើងត្រូវការជាច្រើនដើម្បីធានាថាពួកគេធ្វើការ និងធ្វើការបានត្រឹមត្រូវ។ ចំណាំថា នេះបង្ហាញពីឧបសគ្គដ៏លំបាក និងលំបាកមួយទៀត។ ខ្ញុំបានរៀបរាប់ពីភាពជឿនលឿន និងបញ្ហាប្រឈមចុងក្រោយបំផុតពីមុនមកក្នុងការផ្ទៀងផ្ទាត់ និងសុពលភាពនៃ AI សូមមើល តំណភ្ជាប់នៅទីនេះ.
ដូចដែលបានកត់សម្គាល់នៅក្នុងឯកសារស្រាវជ្រាវ៖ "ដើម្បីដោះស្រាយគម្លាតនេះ មុនពេលដែលគំរូ AI ត្រូវបានដាក់ពង្រាយក្នុងសមត្ថភាពភ្នាក់ងារកាន់តែខ្លាំងឡើង ឧ យានជំនិះដែលមានស្វ័យភាពពេញលេញនៅលើផ្លូវធំៗ ភាគីដាក់ពង្រាយគួរតែបង្ហាញពីការយល់ដឹងរបស់ប្រព័ន្ធអំពីគោលដៅរបស់មនុស្ស គោលនយោបាយ និងស្តង់ដារច្បាប់។ នីតិវិធីផ្ទៀងផ្ទាត់អាចបង្ហាញពី 'ការយល់ដឹង' របស់ AI នៃ 'អត្ថន័យ' នៃគោលគំនិតផ្លូវច្បាប់» (ibid)។
សន្និដ្ឋាន
ខ្ញុំសូមជំរុញឱ្យអ្នកពិចារណាចូលរួមជាមួយខ្ញុំក្នុងដំណើរស្វែងរកដ៏ថ្លៃថ្នូនេះ ដើម្បីកសាង និងដាក់ឱ្យអ្នកត្រួតពិនិត្យពីរដងផ្នែកច្បាប់ AI ។ យើងត្រូវការការយកចិត្តទុកដាក់បន្ថែមទៀត និងធនធានដែលត្រូវបានឧទ្ទិសដល់ការខិតខំប្រឹងប្រែងប្រកបដោយគុណធម៌នេះ។
នេះក៏ផ្តល់នូវកាតព្វកិច្ចទ្វេរដង ដូចដែលបានរៀបរាប់ពីមុន ឆ្ពោះទៅរកការសម្រេចបាន AI Legal Reasoning (AILR) ដែលអាចត្រូវបានប្រើសម្រាប់ការផ្តល់ជំនួយដល់មេធាវី និងអាចប្រើប្រាស់ដោយផ្ទាល់ដោយសាធារណជនទូទៅ។ ជាការពិត អ្នកខ្លះប្រកែកយ៉ាងខ្លាំងថា មធ្យោបាយដែលអាចសម្រេចបានតែមួយគត់នៃការឈានដល់ភាពពេញលេញនៃការទទួលបានយុត្តិធម៌ (A2J) នឹងតាមរយៈការបង្កើត AI ដែលបង្កប់នូវសមត្ថភាពផ្លូវច្បាប់ និងអាចចូលប្រើបានដោយទាំងអស់គ្នា។
ចំណុចចុងក្រោយរហ័សមួយសម្រាប់ពេលនេះ។
ការពិភាក្សាកន្លងមកបានសង្កត់ធ្ងន់ថា AI Legal double-checker នឹងត្រូវបានបង្កប់ ឬដាក់ចូលទៅក្នុង AI ។ នេះពិតជាការផ្តោតសំខាន់របស់អ្នកស្រាវជ្រាវ និងអនុវត្តអាណាចក្រដែលកំពុងរីកចម្រើននេះ។
នេះជាសំណួរដែលគួរពិចារណា។
ពាក់មួកគំនិតរបស់អ្នក។
ហេតុអ្វីមិនប្រើ AI Legal-checkers នៅក្នុងកម្មវិធីទាំងអស់?
ចំនុចសំខាន់គឺថា ជាជាងប្រើប្រាស់ទាំងស្រុងនូវ AI Legal-checkers ពីរដងនៅក្នុង AI ប្រហែលជាយើងគួរតែពង្រីកទស្សនៈរបស់យើង។ កម្មវិធីគ្រប់ប្រភេទអាចវង្វេងផ្លូវច្បាប់។ AI បានទទួលស្គាល់ថាបានទទួលចំណែកនៃការយកចិត្តទុកដាក់របស់សត្វតោ ដោយសារតែវិធីដែល AI ជាធម្មតាត្រូវបានដាក់ឱ្យប្រើប្រាស់ ដូចជាការបង្ហាញការសម្រេចចិត្តដែលធ្វើអោយប៉ះពាល់ដល់មនុស្សក្នុងជីវិតប្រចាំថ្ងៃរបស់ពួកគេ។ ទោះបីជាអ្នកអាចរក្សាបានយ៉ាងងាយស្រួលថាមានប្រព័ន្ធមិនមែន AI ជាច្រើនដែលធ្វើដូចគ្នានេះ។
ជារួម យើងមិនគួរអនុញ្ញាតឱ្យកម្មវិធីណាមួយមានជិះដោយឥតគិតថ្លៃ ដើម្បីជៀសវាង ឬប្រឆាំងនឹងច្បាប់នោះទេ។
សូមរំលឹកមុននេះផងដែរ ដែលខ្ញុំបានលើកឡើងពីប្រភេទពីរនៃការបញ្ចូលគ្នារវាង AI និងច្បាប់។ យើងនៅទីនេះបានផ្តោតលើការប្រើប្រាស់ AI ដូចដែលបានអនុវត្តចំពោះច្បាប់។ នៅផ្នែកម្ខាងទៀតនៃកាក់គឺជាការអនុវត្តច្បាប់ទៅ AI ។ ឧបមាថាយើងបង្កើតច្បាប់ដែលតម្រូវឱ្យប្រើប្រាស់ AI Legal double-checkers ។
ដំបូងឡើយ វាប្រហែលជាត្រូវបានបង្ខាំងនៅក្នុងប្រព័ន្ធ AI ជាពិសេសអ្នកដែលវាយតម្លៃថាមានហានិភ័យខ្ពស់។ បន្តិចម្ដងៗ តម្រូវការត្រួតពិនិត្យពីរដងផ្លូវច្បាប់ AI ដូចគ្នាអាចត្រូវបានពង្រីកទៅកម្មវិធីដែលមិនមែនជា AI ផងដែរ។ ជាថ្មីម្តងទៀត មិនមានការជិះដោយឥតគិតថ្លៃទេ។
ខណៈពេលដែលអ្នកគុយទាវនៅលើការពិចារណាខាងលើ ខ្ញុំនឹងបន្ថែមគ្រឿងទេសជាឈុតខ្លីៗ។ ប្រសិនបើយើងនឹងព្យាយាមទាមទារឱ្យមានអ្នកត្រួតពិនិត្យពីរដងតាមផ្លូវច្បាប់ AI នោះយើងក៏អាចនឹងធ្វើដូចគ្នាដែរអំពីអ្នកត្រួតពិនិត្យពីរដងនៃក្រមសីលធម៌ AI ។ ការប្រើប្រាស់ AI Legal double-checker គឺគ្រាន់តែជារឿងពាក់កណ្តាលប៉ុណ្ណោះ ហើយយើងក៏មិនអាចធ្វេសប្រហែស ឬភ្លេចអំពីកង្វល់នៃក្រមសីលធម៌ AI ផងដែរ។
ខ្ញុំនឹងបញ្ចប់សុន្ទរកថាដ៏រីករាយនេះជាមួយនឹងសម្រង់មួយដែលខ្ញុំចូលចិត្ត។ តាមសំដីដ៏ឈ្លាសវៃរបស់ Earl Warren ដែលជាអ្នកច្បាប់ដ៏ល្បីល្បាញដែលបានបម្រើការជាប្រធានចៅក្រមនៃសហរដ្ឋអាមេរិក៖ "នៅក្នុងជីវិតស៊ីវិល័យ ច្បាប់អណ្តែតនៅក្នុងសមុទ្រនៃក្រមសីលធម៌"។
វាអាចជាការល្អបំផុតក្នុងការដាក់អ្នកត្រួតពិនិត្យ AI Legal double-checkers និង AI Ethics double-checkers ចូលទៅក្នុងការប្រើប្រាស់ដោយប៉ិនប្រសប់ ប្រសិនបើយើងចង់រក្សាក្បាលរបស់យើងឱ្យនៅពីលើសមុទ្រដែលមានសក្តានុពលខ្លាំងពី AI ជូរចត់ និងប្រព័ន្ធដែលមិនមែនជា AI ដែលបង្កគ្រោះថ្នាក់ដល់សុវត្ថិភាពរបស់យើង។ .
ពួកគេអាចជាអាវជីវិតរបស់មនុស្សជាតិ។
ប្រភព៖ https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- និង-ច្បាប់/