ក្រមសីលធម៌ AI និងច្បាប់ AI ប្រហែលជាត្រូវបានជំរុញ និងឈានទៅរកការព្រមានសុវត្ថិភាពលើ AI ដែលមានស្រាប់ និងអនាគត

សកម្មភាពប្រចាំថ្ងៃរបស់អ្នកពិតជាត្រូវបានបំផ្ទុះដោយមានការព្រមានជាមុនមួយពាន់ ឬច្រើនប្រភេទ។

សាកល្បងទាំងនេះសម្រាប់ទំហំ៖

  • វ៉ែនតាសុវត្ថិភាពត្រូវតែពាក់គ្រប់ពេលវេលា
  • គ្រោះថ្នាក់៖ សារធាតុគីមីគ្រោះថ្នាក់នៅក្បែរនោះ។
  • វ៉ុលខ្ពស់ - ទុកចោល
  • ព្រមាន៖ ប្រយ័ត្នជុំវិញខ្លួន
  • វត្ថុនៅក្នុងកញ្ចក់គឺនៅជិតជាងដែលវាលេចឡើង
  • យកកូនចេញមុនពេលបត់ (ដូចមានចែងនៅលើរទេះរុញទារក)
  • ប្រយ័ត្ន៖ ត្រូវប្រាកដថាមិនអើពើនឹងសារនេះ។

ភាគច្រើនជាសញ្ញា ឬស្លាកសញ្ញាដែលងាយស្រួលប្រើ ហើយជាស្លាកសញ្ញា ឬស្លាកសញ្ញាដែលបម្រើដើម្បីរក្សាយើងឱ្យមានសុវត្ថិភាព និងមានសុវត្ថិភាព។

សូម​ដឹង​ថា​ខ្ញុំ​បាន​ចាប់​យក “អ្នក​លើស” មួយ​ចំនួន​ក្នុង​បញ្ជី ដើម្បី​ធ្វើ​ឱ្យ​មាន​ចំណុច​គួរ​ឱ្យ​កត់​សម្គាល់។

ជាឧទាហរណ៍ មនុស្សមួយចំនួនជឿថា វាជារឿងមិនល្អទេដែលរទេះទារកមានស្លាកបិទភ្ជាប់ដែលដាស់តឿនអ្នកកុំឱ្យបត់រទេះរុញ ខណៈដែលទារកនៅតែអង្គុយក្នុងដៃ។ ទោះបីជាសញ្ញានេះពិតជាសមរម្យ និងមានប្រយោជន៍យ៉ាងពិតប្រាកដក៏ដោយ វាហាក់ដូចជាថាសុភវិនិច្ឆ័យជាមូលដ្ឋាននឹងគ្រប់គ្រាន់រួចទៅហើយ។

តើ​មនុស្ស​ណា​ខ្លះ​ដែល​មិន​មាន​ចិត្ត​គំនិត​ខ្លួន​ឯង​ដឹង​ថា​ដំបូង​គេ​ត្រូវ​យក​ទារក​ចេញ?

ជាការប្រសើរណាស់ អ្នកផ្សេងទៀតសង្កត់ធ្ងន់ថាស្លាកបែបនេះបម្រើគោលបំណងសំខាន់មួយ។ ជាដំបូង នរណាម្នាក់ប្រហែលជាភ្លេចខ្លួនថា ពួកគេត្រូវការយកទារកចេញ មុនពេលបត់រទេះរុញ។ ប្រហែលជាអ្នកនោះសន្មត់ថា stroller ត្រូវបានរចនាឡើងយ៉ាងប៉ិនប្រសប់ ដើម្បីធានាថាប្រតិបត្តិការបត់នឹងមិនបង្កគ្រោះថ្នាក់ដល់ទារកនោះទេ។ ឬប្រហែលជាមានមុខងារសុវត្ថិភាពដែលភ្ជាប់មកជាមួយ ដែលការពារការបត់នៅពេលមានកូននៅក្នុងរទេះរុញ។ ល។

ម្យ៉ាងទៀត វាអាចថា បុគ្គលនោះមានការរំខាន ហើយនឹងបត់រទេះរុញដោយមិនដឹងខ្លួន រុំព័ទ្ធទារក និងអ្វីៗទាំងអស់ ប៉ុន្តែស្លាកនោះសំណាងល្អបានជំរុញឱ្យមនុស្សនោះមិនធ្វើដូច្នេះទេ (អ្នកខ្លះប្រកែកថា វាហាក់ដូចជាមិននឹកស្មានដល់ថា មនុស្សបែបនេះនឹងកត់សម្គាល់ស្លាកនោះទេ។ ទោះយ៉ាងណាក៏ដោយ) វាក៏មានការពិតដែលថានរណាម្នាក់អាចប្តឹងអ្នកបង្កើត stroller ប្រសិនបើស្លាកបែបនេះមិនមានវត្តមាន។ អ្នក​អាច​ស្រមៃ​ឃើញ​បណ្តឹង​ដ៏​ធំ​មួយ​ដែល​ទារក​រង​របួស ហើយ​ឪពុក​ម្តាយ​បាន​សម្រេច​យក​លុយ​មួយ​លាន​ដុល្លារ ដោយសារ​តែ​អ្នក​ដើរ​លេង​ខ្វះ​សញ្ញា​ព្រមាន​ដែល​បាន​ដាក់​លើ​វា។ ក្រុមហ៊ុន stroller នឹងសោកស្តាយដែលមិនបានចំណាយប៉ុន្មានសេនដែលចាំបាច់ដើម្បីធ្វើ និងបិទភ្ជាប់សញ្ញាព្រមាននៅលើ strollers របស់ពួកគេ។

សូមក្រឡេកមើលសារព្រមានចុងក្រោយ ដែលខ្ញុំបានរាយបញ្ជីខាងលើ។

ខ្ញុំបានជ្រើសរើសដាក់សារ smarmy អំពីការធ្វើឱ្យប្រាកដថាមិនអើពើនឹងសារនេះ ចាប់តាំងពីមានស្លាកព្រមានក្លែងក្លាយជាច្រើនដែលមនុស្សទិញ ឬផលិតសម្រាប់តែការកម្សាន្តថ្ងៃនេះ។ មួយ​នេះ​គឺ​ជា​ទស្សនវិជ្ជា​ដ៏​ពិត​ប្រាកដ -bender. ប្រសិនបើអ្នកអានការព្រមានដែលនិយាយថាមិនអើពើនឹងការព្រមាន តើអ្នកត្រូវធ្វើអ្វីនៅពេលអានការព្រមាននោះ? អ្នក​បាន​អាន​វា​រួច​ហើយ ដូច្នេះ​វា​ប្រាកដ​ក្នុង​ចិត្ត​របស់​អ្នក។ ប្រាកដណាស់ អ្នកអាចមិនអើពើនឹងវា ប៉ុន្តែបន្ទាប់មកម្តងទៀត អ្នកមិនត្រូវបានណែនាំទាល់តែសោះអំពីអ្វីដែលវាគឺជាការដែលអ្នកគួរមិនអើពើ។ ជុំ​វិញ​ម្តង រឿង​កំប្លែង​នេះ​ទៅ។

ជាការពិតណាស់ ស្លាកព្រមាន bona fide ជាធម្មតាមិនមែនជារឿងកំប្លែង ឬលេងសើចនោះទេ។

យើង​ត្រូវ​ចាត់​ទុក​ការ​ព្រមាន​យ៉ាង​ធ្ងន់ធ្ងរ។

ជាធម្មតា ប្រសិនបើអ្នកមិនគោរពតាមការព្រមានដែលបានកត់សម្គាល់ នោះអ្នកធ្វើដូច្នេះដោយហានិភ័យផ្ទាល់ខ្លួន។ ហើយវាក៏អាចថា ប្រសិនបើអ្នកមិនសង្កេត និងអនុវត្តតាមការព្រមាន នោះអ្នកនឹងអាចបង្កហានិភ័យដល់អ្នកដទៃផងដែរ។ ពិចារណាពីទង្វើនៃការបើកបររថយន្ត។ ពេលដែលអ្នកនៅពីក្រោយកង់រថយន្ត សកម្មភាពរបស់អ្នកដូចជាអ្នកបើកបរអាចបង្កគ្រោះថ្នាក់ដល់ខ្លួនអ្នក បូករួមទាំងគ្រោះថ្នាក់ដល់អ្នកដំណើររបស់អ្នក ហើយអ្នកអាចបង្កគ្រោះថ្នាក់ដល់អ្នកដទៃដូចជាមនុស្សនៅក្នុងរថយន្តផ្សេងទៀត ឬអ្នកថ្មើរជើងនៅក្បែរនោះ។ ក្នុងន័យនេះ ការព្រមានមិនមែនសម្រាប់តែផលប្រយោជន៍របស់អ្នកទេ វាទំនងជាសម្រាប់ផលប្រយោជន៍អ្នកដទៃផងដែរ។

ហេតុអ្វី​បាន​ជា​ខ្ញុំ​គ្រប​ដណ្តប់​លើ​ផ្នែក​នៃ​ការ​ព្រមាន និង​ស្លាក​សញ្ញា​ព្រមាន​ទាំងនេះ?

ដោយសារតែអ្នកខ្លះអះអាងយ៉ាងមុតមាំថា យើងត្រូវការសញ្ញាព្រមាន និងប្រុងប្រយ័ត្នចំពោះបញ្ញាសិប្បនិម្មិត (AI) នាពេលបច្ចុប្បន្ននេះ។

តាមពិត គំនិតគឺដាក់ស្លាកសញ្ញាបែបនេះនៅលើ AI នាពេលបច្ចុប្បន្ន និង AI នាពេលអនាគតផងដែរ។ សរុបមក AI ទាំងអស់នឹងបញ្ចប់ដោយមានទម្រង់ ឬបំរែបំរួលនៃការព្រមាន ឬសញ្ញាព្រមានដែលទាក់ទងនឹងវា។

គំនិតល្អ ឬគំនិតអាក្រក់?

អនុវត្ត ឬមិនអនុវត្ត?

តោះ​ទៅ​មុខ ហើយ​ពន្លា​គំនិត​ចេញ ហើយ​មើល​ថា​តើ​យើង​អាច​បង្កើត​វា​បាន​យ៉ាង​ណា។

ដំបូងខ្ញុំចង់ដាក់មូលដ្ឋានគ្រឹះសំខាន់ៗមួយចំនួនអំពី AI និងជាពិសេស AI Ethics និង AI Law ដើម្បីធ្វើដូច្នេះដើម្បីប្រាកដថាប្រធានបទនៃការព្រមាន AI នឹងមានលក្ខណៈសមស្របតាមបរិបទ។ សម្រាប់អ្នកដែលចាប់អារម្មណ៍ជាទូទៅលើ Ethical AI និងច្បាប់ AI សូមមើលការគ្របដណ្តប់យ៉ាងទូលំទូលាយ និងបន្តរបស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ និង តំណភ្ជាប់នៅទីនេះ, គ្រាន់តែឈ្មោះមួយចំនួន។

ការកើនឡើងនៃការយល់ដឹងអំពីក្រមសីលធម៌ AI និងច្បាប់ AI ផងដែរ។

យុគសម័យថ្មីនៃ AI ត្រូវបានគេមើលឃើញដំបូងថាជា អាយអេសដើម្បីភាពល្អមានន័យថា យើងអាចប្រើប្រាស់ AI សម្រាប់ភាពប្រសើរឡើងនៃមនុស្សជាតិ។ នៅលើកែងជើងរបស់ អាយអេសដើម្បីភាពល្អ មក​ការ​ដឹង​ថា​យើង​ត្រូវ​បាន​ជ្រមុជ​ក្នុង​ផង​ដែរ​ អាយអេសសម្រាប់អាក្រក់. នេះរាប់បញ្ចូលទាំង AI ដែលត្រូវបានបង្កើត ឬកែប្រែខ្លួនឯងទៅជាការរើសអើង និងធ្វើការជ្រើសរើសតាមការគណនាដែលបង្កប់នូវភាពលំអៀងដែលមិនសមហេតុផល។ ពេលខ្លះ AI ត្រូវបានបង្កើតឡើងតាមរបៀបនោះ ខណៈពេលដែលក្នុងករណីផ្សេងទៀត វាចូលទៅក្នុងទឹកដីដែលមិនឆ្ពោះទៅរកនោះ។

ខ្ញុំ​ចង់​ធ្វើ​ឱ្យ​ប្រាកដ​ជា​ច្រើន​ថា​យើង​នៅ​លើ​ទំព័រ​តែ​មួយ​អំពី​លក្ខណៈ​នៃ AI សព្វថ្ងៃ។

មិនមាន AI ណាមួយដែលប្រកបដោយមនោសញ្ចេតនាទេ។ យើងមិនមាននេះទេ។ យើង​មិន​ដឹង​ថា​តើ​ AI ​អាច​នឹង​កើត​ឡើង​ឬ​អត់​នោះ​ទេ។ គ្មាននរណាម្នាក់អាចទស្សន៍ទាយបានច្បាស់ថា តើយើងនឹងសម្រេចបាន AI អារម្មណ៍ ឬថាតើ AI អារម្មណ៍នឹងកើតឡើងដោយអព្ភូតហេតុដោយឯកឯងក្នុងទម្រង់នៃ supernova នៃការយល់ដឹងតាមការគណនា (ជាទូទៅគេហៅថាឯកវចនៈ សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ).

ប្រភេទនៃ AI ដែលខ្ញុំកំពុងផ្តោតលើមាន AI ដែលមិនមានអារម្មណ៍ដែលយើងមានសព្វថ្ងៃនេះ។ ប្រសិនបើយើងចង់ស្មានទុកជាមុនអំពី AI ប្រកបដោយការយល់ឃើញ ការពិភាក្សានេះអាចទៅក្នុងទិសដៅខុសគ្នាខ្លាំង។ AI ដែល​មាន​អារម្មណ៍​ថា​នឹង​មាន​គុណភាព​មនុស្ស។ អ្នកនឹងត្រូវពិចារណាថា AI អារម្មណ៍គឺស្មើនឹងការយល់ដឹងរបស់មនុស្ស។ ជាងនេះទៅទៀត ដោយសារមានការស្មានខ្លះៗថា យើងប្រហែលជាមាន AI ដ៏វៃឆ្លាត ដែលអាចសន្និដ្ឋានបានថា AI បែបនេះអាចឆ្លាតជាងមនុស្សទៅទៀត (សម្រាប់ការរុករករបស់ខ្ញុំនូវ AI ដ៏ឆ្លាតវៃជាលទ្ធភាព សូមមើល ការគ្របដណ្តប់នៅទីនេះ).

ខ្ញុំ​សូម​ណែនាំ​យ៉ាង​មុតមាំ​ថា​យើង​រក្សា​អ្វីៗ​នៅ​លើ​ផែនដី​ហើយ​ពិចារណា​អំពី​ការ​គណនា​មិន​គិត​ពី AI នាពេលបច្ចុប្បន្ននេះ។

ត្រូវដឹងថា AI នាពេលបច្ចុប្បន្ននេះ មិនអាច "គិត" តាមរបៀបណាមួយបានដូចការគិតរបស់មនុស្សនោះទេ។ នៅពេលអ្នកប្រាស្រ័យទាក់ទងជាមួយ Alexa ឬ Siri សមត្ថភាពសន្ទនាអាចហាក់ដូចជាស្រដៀងនឹងសមត្ថភាពរបស់មនុស្ស ប៉ុន្តែការពិតគឺថាវាមានលក្ខណៈគណនា និងខ្វះការយល់ដឹងរបស់មនុស្ស។ យុគសម័យចុងក្រោយបង្អស់របស់ AI បានប្រើប្រាស់យ៉ាងទូលំទូលាយនូវ Machine Learning (ML) និង Deep Learning (DL) ដែលមានឥទ្ធិពលលើការផ្គូផ្គងលំនាំគណនា។ នេះបាននាំឱ្យមានប្រព័ន្ធ AI ដែលមានរូបរាងដូចមនុស្ស។ ទន្ទឹមនឹងនេះដែរ សព្វថ្ងៃនេះមិនមាន AI ណាមួយដែលមានលក្ខណៈសមហេតុសមផលទេ ហើយក៏មិនមានការងឿងឆ្ងល់នៃការយល់ដឹងនៃការគិតដ៏រឹងមាំរបស់មនុស្សដែរ។

សូមប្រយ័ត្នចំពោះ AI នាពេលបច្ចុប្បន្ននេះ។

ML/DL គឺជាទម្រង់នៃការផ្គូផ្គងលំនាំគណនា។ វិធីសាស្រ្តធម្មតាគឺអ្នកប្រមូលផ្តុំទិន្នន័យអំពីកិច្ចការធ្វើការសម្រេចចិត្ត។ អ្នកបញ្ចូលទិន្នន័យទៅក្នុងម៉ូដែលកុំព្យូទ័រ ML/DL ។ គំរូទាំងនោះស្វែងរកលំនាំគណិតវិទ្យា។ បន្ទាប់ពីស្វែងរកគំរូបែបនេះ ប្រសិនបើរកឃើញនោះ ប្រព័ន្ធ AI នឹងប្រើលំនាំទាំងនោះនៅពេលជួបទិន្នន័យថ្មី។ នៅពេលបង្ហាញទិន្នន័យថ្មី គំរូដែលផ្អែកលើ "ទិន្នន័យចាស់" ឬទិន្នន័យប្រវត្តិសាស្រ្តត្រូវបានអនុវត្តដើម្បីបង្ហាញការសម្រេចចិត្តបច្ចុប្បន្ន។

ខ្ញុំ​គិត​ថា​អ្នក​អាច​ទាយ​ថា​តើ​នេះ​កំពុង​ទៅ​ណា​។ ប្រសិនបើ​មនុស្ស​ដែល​បាន​បង្កើត​គំរូ​តាម​ការ​សម្រេច​ចិត្ត​បាន​រួម​បញ្ចូល​ការ​លំអៀង​ដែល​មិន​ឆ្អែតឆ្អន់ នោះ​ការ​ខុសឆ្គង​គឺ​ថា​ទិន្នន័យ​បាន​ឆ្លុះ​បញ្ចាំង​ពី​ចំណុច​នេះ​តាម​វិធី​ស្រាលៗ ប៉ុន្តែ​សំខាន់។ ការ​ផ្គូផ្គង​គំរូ​ការ​សិក្សា​តាម​ម៉ាស៊ីន ឬ​ការ​រៀន​ជ្រៅ​នឹង​ព្យាយាម​ធ្វើ​ត្រាប់តាម​ទិន្នន័យ​តាម​គណិតវិទ្យា។ មិន​មាន​ភាព​ដូច​គ្នា​នៃ​សុភវិនិច្ឆ័យ ឬ​ទិដ្ឋភាព​មនោសញ្ចេតនា​ផ្សេង​ទៀត​នៃ​ការ​បង្កើត​គំរូ​ដែល​បង្កើត​ដោយ AI ក្នុង​មួយ។

ជាងនេះទៅទៀត អ្នកអភិវឌ្ឍន៍ AI ប្រហែលជាមិនដឹងពីអ្វីដែលកំពុងកើតឡើងនោះទេ។ គណិតវិទ្យា arcane នៅក្នុង ML/DL អាចធ្វើឱ្យវាពិបាកក្នុងការបំបាត់ភាពលំអៀងដែលលាក់នៅពេលនេះ។ អ្នកនឹងសង្ឃឹមយ៉ាងត្រឹមត្រូវ ហើយរំពឹងថាអ្នកអភិវឌ្ឍន៍ AI នឹងសាកល្បងសម្រាប់ភាពលំអៀងដែលអាចកប់បាន ទោះបីជាវាពិបាកជាងវាក៏ដោយ។ ឱកាសដ៏រឹងមាំមួយមានដែលថា ទោះបីជាមានការសាកល្បងយ៉ាងទូលំទូលាយថានឹងមានភាពលំអៀងនៅតែបង្កប់នៅក្នុងគំរូដែលត្រូវគ្នានឹងគំរូនៃ ML/DL ក៏ដោយ។

អ្នក​អាច​ប្រើ​សុភាសិត​ដ៏​ល្បី​ឬ​មិន​ល្អ​ខ្លះ​នៃ​ការ​ចោល​សំរាម​ក្នុង​ធុង​សំរាម។ រឿងនោះគឺថា នេះគឺស្រដៀងទៅនឹងភាពលំអៀងដែលបញ្ចូលទៅក្នុង insidiously ដូចជាភាពលំអៀងដែលលិចចូលទៅក្នុង AI ។ ក្បួនដោះស្រាយការសម្រេចចិត្ត (ADM) នៃ AI axiomatically ក្លាយជាបន្ទុកដោយភាពមិនស្មើគ្នា។

មិនល្អ។

ទាំងអស់នេះមានផលប៉ះពាល់យ៉ាងសំខាន់ AI Ethics និងផ្តល់នូវបង្អួចងាយស្រួលចូលទៅក្នុងមេរៀនដែលបានរៀន (សូម្បីតែមុនពេលមេរៀនទាំងអស់កើតឡើង) នៅពេលនិយាយអំពីការព្យាយាមបង្កើតច្បាប់ AI ។

ក្រៅពីការប្រើប្រាស់ច្បាប់សីលធម៌ AI ជាទូទៅ មានសំណួរដែលត្រូវគ្នាថាតើយើងគួរតែមានច្បាប់ដើម្បីគ្រប់គ្រងការប្រើប្រាស់ផ្សេងៗនៃ AI ដែរឬទេ។ ច្បាប់ថ្មីកំពុងត្រូវបានដាក់ពង្រាយនៅកម្រិតសហព័ន្ធ រដ្ឋ និងមូលដ្ឋាន ដែលទាក់ទងនឹងជួរ និងលក្ខណៈនៃរបៀបដែល AI គួរតែត្រូវបានបង្កើត។ ការ​ខិតខំ​ធ្វើ​សេចក្តី​ព្រាង និង​អនុម័ត​ច្បាប់​បែប​នេះ​ជា​បណ្តើរៗ។ ក្រមសីលធម៌ AI ដើរតួជាគម្លាតដែលត្រូវបានពិចារណា យ៉ាងហោចណាស់ ហើយស្ទើរតែនឹងប្រាកដក្នុងកម្រិតខ្លះត្រូវបានដាក់បញ្ចូលទៅក្នុងច្បាប់ថ្មីទាំងនោះ។

ត្រូវ​ដឹង​ថា​មាន​អ្នក​ខ្លះ​ប្រកែក​យ៉ាង​ម៉ឺងម៉ាត់​ថា​យើង​មិន​ត្រូវ​ការ​ច្បាប់​ថ្មី​ដែល​គ្រប​ដណ្ដប់​លើ AI ហើយ​ថា​ច្បាប់​ដែល​មាន​ស្រាប់​របស់​យើង​គឺ​គ្រប់គ្រាន់​ហើយ។ ពួកគេបានព្រមានថា ប្រសិនបើយើងអនុវត្តច្បាប់ AI មួយចំនួននេះ យើងនឹងសម្លាប់សត្វពពែមាស ដោយកាត់បន្ថយភាពជឿនលឿននៃ AI ដែលផ្តល់អត្ថប្រយោជន៍យ៉ាងច្រើនដល់សង្គម។

នៅក្នុងជួរមុន ខ្ញុំបានរៀបរាប់អំពីកិច្ចខិតខំប្រឹងប្រែងជាតិ និងអន្តរជាតិផ្សេងៗ ដើម្បីបង្កើត និងអនុម័តច្បាប់គ្រប់គ្រង AI សូមមើល តំណភ្ជាប់នៅទីនេះ, ឧទាហរណ៍។ ខ្ញុំក៏បានគ្របដណ្តប់លើគោលការណ៍ និងគោលការណ៍ណែនាំអំពីក្រមសីលធម៌ AI ជាច្រើនដែលប្រជាជាតិនានាបានកំណត់ និងអនុម័ត រួមទាំងឧទាហរណ៍ការខិតខំប្រឹងប្រែងរបស់អង្គការសហប្រជាជាតិដូចជា UNESCO កំណត់ក្រមសីលធម៌ AI ដែលប្រទេសជិត 200 បានអនុម័ត។ តំណភ្ជាប់នៅទីនេះ.

នេះគឺជាបញ្ជីគន្លឹះដ៏មានប្រយោជន៍នៃលក្ខណៈវិនិច្ឆ័យ AI សីលធម៌ ឬលក្ខណៈទាក់ទងនឹងប្រព័ន្ធ AI ដែលខ្ញុំបានស្វែងរកយ៉ាងជិតស្និទ្ធពីមុនមក៖

  • តម្លាភាព
  • យុត្តិធម៌ និងយុត្តិធម៌
  • ភាពមិនអាក្រក់
  • ការទទួលខុសត្រូវ
  • ភាពឯកជន
  • អត្ថប្រយោជន៍
  • សេរីភាព និងស្វ័យភាព
  • ការជឿទុកចិត្ត
  • និរន្តរភាព
  • សេចក្តីថ្លៃថ្នូរ
  • សាមគ្គីភាព

គោលការណ៍ក្រមសីលធម៌ AI ទាំងនោះត្រូវបានគេសន្មត់ថាប្រើប្រាស់ដោយស្មោះស្ម័គ្រដោយអ្នកអភិវឌ្ឍន៍ AI រួមជាមួយនឹងអ្នកដែលគ្រប់គ្រងកិច្ចខិតខំប្រឹងប្រែងអភិវឌ្ឍន៍ AI និងសូម្បីតែអ្នកដែលនៅទីបំផុតអនុវត្ត និងថែរក្សាប្រព័ន្ធ AI ។

អ្នកពាក់ព័ន្ធទាំងអស់នៅទូទាំងវដ្តជីវិត AI នៃការអភិវឌ្ឍន៍ និងការប្រើប្រាស់ត្រូវបានចាត់ទុកថាស្ថិតក្នុងវិសាលភាពនៃការគោរពតាមបទដ្ឋានដែលត្រូវបានបង្កើតឡើងនៃ Ethical AI ។ នេះគឺជាការគូសបញ្ជាក់ដ៏សំខាន់មួយចាប់តាំងពីការសន្មត់ជាធម្មតាគឺថា "មានតែអ្នកសរសេរកូដ" ឬអ្នកដែលកម្មវិធី AI ប៉ុណ្ណោះដែលត្រូវប្រកាន់ខ្ជាប់នូវគោលគំនិតសីលធម៌របស់ AI ។ ដូចដែលបានសង្កត់ធ្ងន់ពីមុនមក វាត្រូវការភូមិមួយដើម្បីបង្កើត និងអនុវត្ត AI ហើយសម្រាប់ភូមិទាំងមូលត្រូវតែគោរព និងគោរពតាមសិក្ខាបទក្រមសីលធម៌ AI ។

ថ្មីៗនេះខ្ញុំក៏បានពិនិត្យ វិក័យប័ត្រនៃសិទ្ធិ AI ដែលជាចំណងជើងផ្លូវការនៃឯកសារផ្លូវការរបស់រដ្ឋាភិបាលសហរដ្ឋអាមេរិកដែលមានចំណងជើងថា "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" ដែលជាលទ្ធផលនៃកិច្ចខិតខំប្រឹងប្រែងរយៈពេលមួយឆ្នាំដោយការិយាល័យគោលនយោបាយវិទ្យាសាស្ត្រ និងបច្ចេកវិទ្យា (OSTP ) OSTP គឺជាអង្គភាពសហព័ន្ធដែលបម្រើការផ្តល់ប្រឹក្សាដល់ប្រធានាធិបតីអាមេរិក និងការិយាល័យប្រតិបត្តិរបស់សហរដ្ឋអាមេរិកអំពីទិដ្ឋភាពបច្ចេកវិទ្យា វិទ្យាសាស្ត្រ និងវិស្វកម្មផ្សេងៗនៃសារៈសំខាន់ជាតិ។ ក្នុងន័យនេះ អ្នកអាចនិយាយបានថា Bill of Rights របស់ AI នេះគឺជាឯកសារដែលត្រូវបានអនុម័ត និងយល់ព្រមដោយសេតវិមានអាមេរិកដែលមានស្រាប់។

នៅក្នុង AI Bill of Rights មាន XNUMX ប្រភេទសំខាន់ៗដូចជា៖

  • ប្រព័ន្ធសុវត្ថិភាព និងមានប្រសិទ្ធភាព
  • ការការពារការរើសអើងជាក្បួន
  • ភាពឯកជនទិន្នន័យ
  • សេចក្តីជូនដំណឹង និងការពន្យល់
  • ជម្មើសជំនួសរបស់មនុស្ស ការពិចារណា និងការថយក្រោយ

ខ្ញុំបានពិនិត្យដោយប្រុងប្រយ័ត្ននូវសិក្ខាបទទាំងនោះ តំណភ្ជាប់នៅទីនេះ.

ឥឡូវនេះ ដោយខ្ញុំបានដាក់មូលដ្ឋានគ្រឹះដ៏មានប្រយោជន៍លើប្រធានបទ AI Ethics និង AI Law ដែលពាក់ព័ន្ធទាំងនេះ ពួកយើងបានត្រៀមខ្លួនរួចជាស្រេចដើម្បីចូលទៅក្នុងប្រធានបទសំខាន់ថាតើ AI គួរតែមានស្លាកសញ្ញាព្រមានឬអត់។

ត្រៀមខ្លួនសម្រាប់ដំណើរកម្សាន្តប្រកបដោយព័ត៌មាន។

ការដាក់ស្លាកសញ្ញាព្រមាននៅលើ AI ជាមធ្យោបាយការពារមនុស្សជាតិ

មានការភ្ញាក់ផ្អើលកាន់តែខ្លាំងឡើងដែលប្រហែលជា AI គួរតែមកជាមួយនឹងការព្រមាននៃប្រភេទមួយចំនួន។

ជាឧទាហរណ៍នៅក្នុងអត្ថបទថ្មីៗនេះនៅក្នុង MIT Technology Review ដែលបានពិភាក្សាអំពីការកើនឡើងនៃចំណាប់អារម្មណ៍ក្នុងការធ្វើសវនកម្មនៃ AI សញ្ញាណនៃការផ្តល់សញ្ញាព្រមានបានកើតឡើង៖ "ការរីកចម្រើននៃសវនកម្មទាំងនេះបង្ហាញថាថ្ងៃណាមួយយើងអាចឃើញការព្រមានតាមបែបកញ្ចប់បារីដែលថាប្រព័ន្ធ AI អាចប៉ះពាល់ដល់សុខភាព និងសុវត្ថិភាពរបស់អ្នក។ វិស័យផ្សេងទៀត ដូចជា សារធាតុគីមី និងអាហារ មានសវនកម្មទៀងទាត់ ដើម្បីធានាថា ផលិតផលមានសុវត្ថិភាពក្នុងការប្រើប្រាស់។ តើ​អ្វី​មួយ​បែប​នេះ​អាច​ក្លាយ​ជា​បទដ្ឋាន​ក្នុង AI ដែរ​ឬ​ទេ? (MIT Technology Review, Melissa Heikkilä, ថ្ងៃទី 24 ខែតុលា ឆ្នាំ 2022).

តោះជជែកគ្នាបន្តិចអំពីការព្រមាន និងសញ្ញាប្រុងប្រយ័ត្ន។

យើងទាំងអស់គ្នាបានស្គាល់រួចមកហើយនូវសញ្ញាព្រមាន និងសញ្ញាព្រមានអំពីផលិតផល និងសេវាកម្មជាច្រើននៃធម្មជាតិប្រចាំថ្ងៃ។ ពេលខ្លះសញ្ញាសុវត្ថិភាពត្រូវបានចែងដោយច្បាប់ថាត្រូវបានទាមទារ ខណៈពេលដែលក្នុងករណីផ្សេងទៀតមានការសំរេចចិត្តក្នុងការប្រើប្រាស់សញ្ញាបែបនេះ។ លើសពីនេះ ផ្លាកសញ្ញាសុវត្ថិភាពមួយចំនួនត្រូវបានកំណត់តាមស្តង់ដារ ដូចជាត្រូវបានបញ្ជាក់តាមស្តង់ដារ ANSI Z535 និងស្តង់ដារ OSHA 1910.14។ ស្ដង់ដារទាំងនោះគ្របដណ្ដប់លើទិដ្ឋភាពដូចជាពាក្យនៃសញ្ញា ពណ៌ និងពុម្ពអក្សរដែលបានប្រើ រូបរាងរបស់សញ្ញា និងចំណុចពិសេសផ្សេងៗ។

វាសមហេតុផលដែលមានស្តង់ដារសម្រាប់សញ្ញាព្រមានបែបនេះ។ នៅពេលណាដែលអ្នកឃើញសញ្ញាបែបនេះ ប្រសិនបើវាបំពេញតាមស្តង់ដារដែលបានចែង អ្នកទំនងជាជឿថាសញ្ញានោះមានភាពស្របច្បាប់ បូកនឹងអ្នកទាមទារដំណើរការយល់ដឹងតិចដើម្បីវិភាគ និងធ្វើឱ្យយល់អំពីសញ្ញានោះ។ សម្រាប់សញ្ញាដែលមិនមែនជាវិធីសាស្រ្តស្ដង់ដារ ជាញឹកញាប់អ្នកត្រូវគណនាផ្លូវចិត្តអំពីអ្វីដែលសញ្ញាប្រាប់អ្នក ប្រហែលជាបាត់បង់ពេលវេលាដ៏មានតម្លៃដើម្បីចាត់វិធានការ ឬអ្នកអាចវាយតម្លៃសញ្ញាខុសទាំងស្រុង និងមិនអាចយល់បានត្រឹមត្រូវនូវការព្រមាននៅក្នុងដៃ។

ជួរនៃសញ្ញាបែបនេះអាចមាន ដែលពួកវាត្រូវបានចាត់ថ្នាក់ជាញឹកញាប់ដូចនេះ៖

  • សញ្ញាគ្រោះថ្នាក់៖ ការព្រួយបារម្ភខ្ពស់បំផុត និងបង្ហាញពីគ្រោះថ្នាក់ភ្លាមៗ ដែលទំនងជាមានផលវិបាកធ្ងន់ធ្ងរ
  • សញ្ញាព្រមាន៖ បង្ហាញពីគ្រោះថ្នាក់ដែលតិចជាង “គ្រោះថ្នាក់” ប៉ុន្តែនៅតែធ្ងន់ធ្ងរនៅឡើយ
  • សញ្ញាប្រុងប្រយ័ត្ន៖ បង្ហាញពីហានិភ័យដែលអាចកើតមានដែលតិចជាង "ការព្រមាន" ប៉ុន្តែនៅតែពិតប្រាកដ
  • សញ្ញា​ជូនដំណឹង៖ បង្ហាញ​ពី​ការ​ផ្តល់​ព័ត៌មាន​ដែល​មាន​កម្រិត​តិច​ជាង “ការ​ប្រុង​ប្រយ័ត្ន” ប៉ុន្តែ​នៅ​តែ​មាន​ទិដ្ឋភាព​គួរ​ឲ្យ​ព្រួយ​បារម្ភ។

ដោយ​មាន​ផ្ទៃ​ខាង​ក្រោយ​អំពី​ការ​ព្រមាន​និង​សញ្ញា​ព្រមាន យើង​អាច​ទៅ​មុខ ហើយ​ព្យាយាម​អនុវត្ត​វា​តាម​បរិបទ​ទៅ​នឹង​ការ​ប្រើ AI។

ជាដំបូង យើងអាចយល់ស្របថា សញ្ញា AI អាចស្ថិតក្នុងកម្រិតនៃភាពធ្ងន់ធ្ងរស្រដៀងគ្នា ដូចទម្លាប់ជាមួយសញ្ញាប្រចាំថ្ងៃ ដូចជា៖

  • សញ្ញាគ្រោះថ្នាក់ AI៖ AI នៃការព្រួយបារម្ភខ្ពស់បំផុត និងបង្ហាញពីគ្រោះថ្នាក់ភ្លាមៗ ដែលទំនងជាមានផលវិបាកធ្ងន់ធ្ងរ
  • សញ្ញាព្រមាន AI៖ AI បង្ហាញពីគ្រោះថ្នាក់ដែលតិចជាង "គ្រោះថ្នាក់" ប៉ុន្តែនៅតែធ្ងន់ធ្ងរ
  • សញ្ញាព្រមាន AI៖ AI បង្ហាញពីគ្រោះថ្នាក់ដែលអាចកើតមានដែលតិចជាង "ការព្រមាន" ប៉ុន្តែនៅតែស្មោះត្រង់
  • សញ្ញាជូនដំណឹង AI៖ AI បង្ហាញពីការជូនដំណឹងព័ត៌មានដែលតិចជាង "ការប្រុងប្រយ័ត្ន" ប៉ុន្តែនៅតែមានទិដ្ឋភាពគួរឱ្យព្រួយបារម្ភ

ចំណុចសំខាន់គឺថាមិនមែន AI ទាំងអស់នឹងមានការព្រួយបារម្ភដូចគ្នានោះទេ។ វាអាចថា AI បង្កហានិភ័យយ៉ាងខ្លាំង ឬមានហានិភ័យតិចតួចប៉ុណ្ណោះ។ អាស្រ័យហេតុនេះ ផ្លាកសញ្ញាគួរតែឆ្លុះបញ្ចាំងថា មួយណា។ ប្រសិនបើការព្រមាន AI ទាំងអស់ ឬសញ្ញាប្រុងប្រយ័ត្នត្រូវបានបង្ហាញយ៉ាងសាមញ្ញថាមានកម្រិតដូចគ្នានោះ យើងប្រហែលជាមិនដឹង ឬដឹងថាតើត្រូវព្រួយបារម្ភខ្លាំង ឬមានការព្រួយបារម្ភតិចតួចអំពី AI នោះទេ។ ការប្រើគ្រោងការណ៍ពាក្យស្មុគ្រស្មាញអាចនឹងធ្វើឱ្យជីវិតកាន់តែងាយស្រួលនៅពេលឃើញ និងបកស្រាយសញ្ញាព្រមានទាក់ទងនឹង AI ។

អ្នក​ប្រហែល​ជា​ឆ្ងល់​ថា​តើ​សញ្ញា​អ្វី​ទៀត​ដែល​នឹង​និយាយ​ក្នុង​លក្ខខណ្ឌ​ជាក់លាក់​នៃ​សារ​ដែល​ត្រូវ​បញ្ជូន។

នោះពិតជាបញ្ហាពិបាកជាងក្នុងការដោះស្រាយ។ លទ្ធភាពរបស់ AI ក្នុងការធ្វើរឿងដែលត្រូវបានចាត់ទុកថាមិនមានសុវត្ថិភាព ឬគួរឱ្យព្រួយបារម្ភ នឹងមានបរិមាណដ៏ធំសម្បើម ស្ទើរតែគ្មានទីបញ្ចប់។ តើយើងអាចស្ងោរវាចូលទៅក្នុងសំណុំទម្លាប់មួយចំនួន ដែលសរសេរចេញក្នុងពាក្យមួយក្តាប់តូចបានទេ? ឬតើយើងនឹងត្រូវអនុញ្ញាតឱ្យមានវិធីសាស្រ្តសេរីបន្ថែមទៀតចំពោះរបៀបដែលពាក្យនឹងទៅជាយ៉ាងណា?

ខ្ញុំនឹងឱ្យអ្នកពិចារណាសំណួរបើកចំហនោះ។

បន្តទៅមុខ យើងមានទំនោរនឹងឃើញសញ្ញាព្រមានដែលត្រូវបានបង្ហោះនៅលើវត្ថុ។ ប្រព័ន្ធ AI មិនចាំបាច់ជា "វត្ថុ" ក្នុងន័យដូចគ្នានឹងការបិទសញ្ញាតាមទម្លាប់នោះទេ។ នេះ​ជា​ចម្ងល់​ថា តើ​សញ្ញា​ព្រមាន AI នឹង​ត្រូវ​បង្ហាញ​នៅ​កន្លែង​ណា?

វាអាចថានៅពេលដែលអ្នកកំពុងដំណើរការកម្មវិធីមួយ និយាយថាស្មាតហ្វូនរបស់អ្នកប្រសិនបើវាកំពុងប្រើ AI នោះនឹងមានសារមួយដែលបង្ហាញថាមានការព្រមានទាក់ទងនឹង AI ។ កម្មវិធីនេះនឹងជូនដំណឹងអ្នកអំពីការប្រើប្រាស់មូលដ្ឋាននៃ AI ។ នេះអាចជាសារលេចឡើង ឬអាចត្រូវបានបង្ហាញក្នុងវិធីជាច្រើនដែលមើលឃើញ និងសូម្បីតែសូរសព្ទ។

វាក៏មានស្ថានភាពនៃការប្រើប្រាស់សេវាកម្មរបស់អ្នកដែលត្រូវបានគាំទ្រដោយ AI ទោះបីជាអ្នកប្រហែលជាមិនទាក់ទងដោយផ្ទាល់ជាមួយ AI ក៏ដោយ។ ជាឧទាហរណ៍ អ្នកអាចកំពុងសន្ទនាជាមួយភ្នាក់ងារមនុស្សអំពីការទទួលបានកម្ចីទិញផ្ទះ ដែលភ្នាក់ងារនោះនៅពីក្រោយឆាកដោយស្ងៀមស្ងាត់ដោយប្រើប្រព័ន្ធ AI ដើម្បីណែនាំកិច្ចខិតខំប្រឹងប្រែងរបស់ពួកគេ។

ដូច្នេះហើយ យើងគួរតែរំពឹងថា សញ្ញាព្រមាន AI គួរតែមានវត្តមាននៅក្នុងករណីប្រើប្រាស់ AI ទាំងពីរ ដូចជា៖

  • AI ផលិតផលជាក់លាក់៖ AI ជាផលិតផលគួរតែមានការព្រមាន AI ឬសញ្ញាប្រុងប្រយ័ត្ន
  • AI តម្រង់ទិសសេវាកម្ម៖ AI ជាសេវាកម្ម (ដោយផ្ទាល់ ឬដោយប្រយោល) គួរតែមានការព្រមាន AI ឬសញ្ញាព្រមាន

អ្នកសង្ស័យប្រាកដជានឹងឆាប់ណែនាំថា សញ្ញាព្រមាន AI អាចត្រូវបានក្លែងបន្លំដោយអ្នកបង្កើតកម្មវិធី ដូច្នេះការជូនដំណឹងមិនគួរឱ្យកត់សម្គាល់ជាពិសេស។ ប្រហែលជាការព្រមានលេចឡើងភ្លាមៗ ហើយអ្នកពិតជាមិនកត់សំគាល់ថាវាត្រូវបានបង្ហាញទេ។ ល្បិចបោកបញ្ឆោតមួយទៀតគឺបង្កើតហ្គេមមួយប្រភេទចេញពីវា ដែលហាក់ដូចជាកាត់បន្ថយភាពធ្ងន់ធ្ងរនៃការដាស់តឿន និងបញ្ឆោតមនុស្សឱ្យគិតថាការព្រមានមិនសមហេតុផល។

បាទ / ចាស អ្នកអាចភ្នាល់បានច្រើនថា សញ្ញាព្រមានដែលទាក់ទងនឹង AI នឹងត្រូវបានបញ្ឆោត និងប្រើក្នុងវិធីដែលមិនមាននៅក្នុងស្មារតី និងចេតនានៃការផ្ញើសារព្រមានដែលពួកគេត្រូវបានសន្មត់ថានឹងបញ្ជូន។

ការមន្ទិលសង្ស័យទាំងអស់នោះ បង្ហាញពីថាតើយើងនឹងប្រើប្រាស់ AI Ethics ជា "ច្បាប់ទន់" ដើម្បីព្យាយាម និងជំរុញទៅមុខលើការព្រមាន និងការប្រុងប្រយ័ត្នទាក់ទងនឹង AI ឬថាតើយើងនឹងប្រើ "ច្បាប់រឹង" រួមទាំងច្បាប់ដែលបានអនុម័តដោយមានការគាំទ្រពីតុលាការ។ តាមទ្រឹស្ដី ការជំរុញច្បាប់ទន់នឹងអនុញ្ញាតឱ្យមានរូបរាងកាន់តែធំនៃការលេងសើចជាមួយបញ្ហា ខណៈពេលដែលច្បាប់នៅលើសៀវភៅនឹងមកជាមួយសក្តានុពលសម្រាប់ការអនុវត្តរបស់រដ្ឋាភិបាល និងនាំមកនូវភាពតឹងរ៉ឹងកាន់តែខ្លាំង។

ការព្រួយបារម្ភមួយទៀតគឺថាតើផ្លាកសញ្ញា AI នឹងធ្វើឱ្យមានភាពខុសប្លែកគ្នាឬយ៉ាងណា។

ការស្រាវជ្រាវជាច្រើនអំពីអាកប្បកិរិយារបស់អ្នកប្រើប្រាស់មានទំនោរបង្ហាញលទ្ធផលដែលច្របូកច្របល់នៅពេលនិយាយអំពីការផ្តល់ស្លាកសញ្ញាព្រមានដល់អ្នកប្រើប្រាស់។ ពេលខ្លះការព្រមានមានប្រសិទ្ធភាព ពេលខ្លះក៏មិនមានដែរ។ ចូរយើងអនុវត្តការស្រាវជ្រាវនោះខ្លះទៅបរិបទ AI ។

ពិចារណាផ្នែកទាំងនេះ៖

  • ការរកឃើញ៖ តើ​អ្នក​ដែល​ប្រើ AI ដែលមាន​សញ្ញា​ព្រមាន AI ដែលអាច​សម្រេចបាន​នឹង​កត់សម្គាល់​យ៉ាងសកម្ម ឬ​រកឃើញថា​សញ្ញា​នេះ​កំពុង​ត្រូវ​បាន​បង្ហាញ​ដល់​ពួកគេ (សន្មត់​ថា​មាន​សញ្ញា​បែបនេះ​កើតឡើង) ដែរឬទេ?
  • ការយល់ដឹង៖ សម្រាប់​អ្នក​ដែល​បាន​កត់​សម្គាល់ តើ​ពួកគេ​នឹង​យល់ ឬ​យល់​ពី​សញ្ញា​ព្រមាន​របស់ AI កំពុង​ព្យាយាម​ផ្ដល់​យោបល់​ដល់​ពួកគេ​ដែរ​ឬ​ទេ?
  • សកម្មភាព: សម្រាប់អ្នកដែលធ្វើឱ្យផ្លូវចិត្តលោតផ្លោះ តើសញ្ញាព្រមាន AI នឹងជំរុញឱ្យពួកគេធ្វើសកម្មភាព ឬបើមិនដូច្នេះទេ ដើម្បីណែនាំអាកប្បកិរិយារបស់ពួកគេតាមនោះ?

អ្នកអាចរំពឹងថា ប្រសិនបើសន្ទុះកើនឡើងសម្រាប់ការមានសញ្ញាព្រមាន AI អ្នកស្រាវជ្រាវនឹងសិក្សាយ៉ាងដិតដល់អំពីបញ្ហានេះ។ គំនិត​នេះ​នឹង​ជួយ​ក្នុង​ការ​បញ្ជាក់​ក្នុង​កាលៈទេសៈ​ណា​ដែល​ការ​ព្រមាន​មាន​ប្រយោជន៍ និង​នៅ​ពេល​ដែល​វា​មិន​មាន។ នេះទាក់ទងនឹងការរចនា និងរូបរាង និងមានអារម្មណ៍ពាក់ព័ន្ធ។ យើងក៏អាចរំពឹងថាសាធារណជនជាធំនឹងត្រូវការអប់រំ ឬជូនដំណឹងអំពីការលេចចេញនូវសញ្ញាព្រមាន និងសញ្ញាប្រុងប្រយ័ត្ន AI ទាំងនេះ ដើម្បីឲ្យពួកគេស៊ាំនឹងពួកគេ។

មានការកែប្រែ និងវេនជាច្រើនដែលត្រូវពិចារណា។

តើសញ្ញាព្រមាន ឬសញ្ញាព្រមានរបស់ AI គួរតែកើតឡើងនៅពេលចាប់ផ្តើមកម្មវិធីដែលត្រូវបានប្រើទេ? ប្រហែលជាចំណុចចាប់ផ្តើមមិនគ្រប់គ្រាន់ដោយខ្លួនឯងទេ។ មនុស្សម្នាក់ប្រហែលជាគិតភ្លាមៗថាកម្មវិធីកំពុងលេងវាដោយសុវត្ថិភាព ដោយប្រើការព្រមាន ដូច្នេះហើយមិនយកចិត្តទុកដាក់ច្រើនចំពោះការព្រមាននោះទេ។ នៅពេលដែលបុគ្គលនោះស្ថិតក្នុងពាក់កណ្ដាលផ្លូវក្នុងការប្រើប្រាស់កម្មវិធី ប្រហែលជាការព្រមានបន្ថែមនឹងត្រូវបានធានា។ នៅពេលនោះ បុគ្គលនោះកាន់តែដឹងអំពីអ្វីដែលកម្មវិធីកំពុងដំណើរការ ហើយពួកគេអាចនឹងភ្លេចអំពីសារព្រមានដែលបានចង្អុលបង្ហាញពីមុនរួចហើយ។

ការព្រមាន AI ឬការប្រុងប្រយ័ត្នអាចនឹងកើតឡើង៖

  • មុនពេលចាប់ផ្តើមកម្មវិធី និងគ្រាន់តែជាកម្មវិធីដែលហៀបនឹងត្រូវបានហៅ
  • បង្ហាញនៅពេលកម្មវិធីត្រូវបានចាប់ផ្តើម ហើយមានតែនៅចំណុចចាប់ផ្តើមប៉ុណ្ណោះ។
  • បង្ហាញនៅពេលចាប់ផ្តើម ហើយម្តងទៀតនៅពាក់កណ្តាលផ្លូវ
  • បង្ហាញច្រើនដងក្នុងការប្រើប្រាស់ AI
  • បានផ្តល់ឱ្យនៅចុងបញ្ចប់នៃការប្រើប្រាស់កម្មវិធី
  • ផ្ដល់ជូនបន្ទាប់ពីចេញពីកម្មវិធី ហើយអាចសូម្បីតែនាទី ម៉ោង ឬថ្ងៃក្រោយ

តើ​អ្នក​គិត​ថា​អ្នក​ដែល​ប្រើ​ AI ​ត្រូវ​ការ​បញ្ជាក់​ ឬ​ទទួល​ស្គាល់​ការ​ព្រមាន​ឬ​សញ្ញា​ព្រមាន​របស់​ AI ​ឬ​ទេ?

អ្នក​ខ្លះ​ទទូច​ថា​បុគ្គល​នោះ​គួរ​តែ​ត្រូវ​បាន​តម្រូវ​ឱ្យ​ទទួល​ស្គាល់​ថា​ពួកគេ​បាន​ឃើញ​ការ​ព្រមាន។ នេះ​អាច​រារាំង​អ្នក​ដែល​អាច​អះអាង​ថា​មិន​មាន​សារ​ព្រមាន​ណាមួយ​ឡើយ។ វាក៏អាចធ្វើឱ្យមនុស្សប្រកាន់យកសារកាន់តែធ្ងន់ធ្ងរផងដែរ ដោយសារពួកគេកំពុងត្រូវបានស្នើសុំឱ្យបញ្ជាក់ថាពួកគេបានសង្កេតឃើញសញ្ញាព្រមាន។

នេះជាសំណួរពិបាកសម្រាប់អ្នក។

គួរ ទាំងអស់ AI ត្រូវ​ផ្តល់​ការ​ព្រមាន ឬ​សញ្ញា​សុវត្ថិភាព?

អ្នកអាចប្រកែកថា បាទ AI ទាំងអស់ត្រូវតែមាននេះ។ ទោះបីជា AI គ្រាន់តែជាហានិភ័យសុវត្ថិភាពតិចតួចក៏ដោយ ក៏វានៅតែមានទម្រង់នៃសញ្ញាព្រមាន ប្រហែលជាគ្រាន់តែជាការជូនដំណឹង ឬការបង្ហាញព័ត៌មានប៉ុណ្ណោះ។ អ្នកផ្សេងទៀតនឹងជំទាស់នឹងជម្លោះនេះ។ ពួកគេនឹងជំទាស់ថាអ្នកកំពុងឡើងលើ។ មិនមែន AI ទាំងអស់ត្រូវការវាទេ។ ជាងនេះទៅទៀត ប្រសិនបើអ្នកបង្ខំ AI ទាំងអស់ឱ្យមានវា អ្នកនឹងបន្ថយគោលបំណង។ មនុស្សនឹងស្ពឹកពេលឃើញសញ្ញាព្រមាន។ វិធីសាស្រ្តទាំងមូលនឹងក្លាយទៅជាឆ្ងាយ។

នៅលើមុំដែលពាក់ព័ន្ធ សូមពិចារណានូវអ្វីដែលអ្នកផលិត AI ទំនងជានិយាយ។

ទស្សនៈមួយគឺថា នេះនឹងជាការឈឺចាប់ដែលអ្នកដឹង - អ្វីដែលត្រូវធ្វើ។ ការផ្លាស់ប្តូរប្រព័ន្ធ AI របស់អ្នកទាំងអស់ ហើយបន្ថែមមុខងារនេះអាចមានតម្លៃថ្លៃ។ ការបន្ថែមវានៅលើមូលដ្ឋានឆ្ពោះទៅមុខប្រហែលជាចំណាយតិច ទោះបីជាយ៉ាងណាក៏ដោយ វាមានការចំណាយពាក់ព័ន្ធនឹងការរួមបញ្ចូលការផ្តល់នេះ។

ភាពច្របូកច្របល់គឺជាបណ្តឹងដ៏មានសក្តានុពលមួយផ្សេងទៀត។ តើសារប្រភេទណាដែលត្រូវបង្ហាញ? ប្រសិនបើមិនមានស្តង់ដារណាមួយទេ នេះមានន័យថាអ្នកបង្កើត AI នឹងត្រូវបង្កើតអ្វីថ្មី។ មិន​ត្រឹម​តែ​ចំណាយ​បន្ថែម​នេះ​ទេ វា​អាច​បើក​ទ្វារ​ទទួល​បាន​ការ​ប្តឹង។ អ្នកអាចស្រមៃថាអ្នកបង្កើត AI អាចត្រូវបានយកទៅធ្វើកិច្ចការដែលការព្រមានរបស់ពួកគេមិនល្អដូចប្រព័ន្ធ AI ផ្សេងទៀត។ មេធាវី​នឹង​បញ្ចប់​ការ​បង្កើត​បណ្តុំ​ពី​ការ​យល់​ច្រឡំ​ជា​លទ្ធផល។

វាក៏មានការព្រួយបារម្ភផងដែរដែលថាមនុស្សនឹងមានការភ័យខ្លាចហួសហេតុចំពោះសារសុវត្ថិភាពទាំងនេះ។

ក្រុមហ៊ុនផលិត AI ប្រហែលជាមើលឃើញការធ្លាក់ចុះនៃចំនួនអ្នកប្រើប្រាស់ដោយសារតែសារសុវត្ថិភាពដែលគ្រាន់តែមានបំណងផ្តល់ការប្រុងប្រយ័ត្នជាព័ត៌មានប៉ុណ្ណោះ។ មនុស្សនឹងមិនដឹងថាត្រូវបង្កើតសារអ្វីនោះទេ។ ប្រសិនបើពួកគេមិនបានឃើញសារបែបនេះពីមុនមក ពួកគេអាចនឹងមានការភ័យខ្លាចភ្លាមៗ និងជៀសវាងការប្រើប្រាស់ AI ដោយមិនចាំបាច់។

ខ្ញុំលើកឡើងពីមុខមាត់ទាំងនោះ ពីព្រោះអ្នកខ្លះបានប្រកាសរួចហើយថា "វាមិនអាចឈឺចាប់ទេ" ដើម្បីចាប់ផ្តើមរួមបញ្ចូលការព្រមាន AI ឬសារសុវត្ថិភាព។ សម្រាប់ពួកគេ គំនិតនេះគឺល្អដូចនំផ្លែប៉ោម។ គ្មាននរណាម្នាក់អាចបដិសេធយ៉ាងធ្ងន់ធ្ងរអំពីអត្ថប្រយោជន៍នៃការតែងតែទាមទារសុវត្ថិភាព ឬការព្រមានដែលទាក់ទងនឹង AI នោះទេ។ ប៉ុន្តែជាការពិត នោះមិនមែនជារបៀបគិតក្នុងពិភពពិតអំពីបញ្ហានោះទេ។

អ្នកថែមទាំងអាចបន្តទៅទៀត ហើយអះអាងថា សារព្រមាន AI អាចបង្កើតជាទម្រង់នៃការខឹងសម្បារ។ ប្រសិនបើភ្លាមៗនោះយើងបានចាប់ផ្តើមបង្ខំប្រព័ន្ធ AI ឱ្យមានសារបែបនេះ មនុស្សអាចយល់ខុសអំពីចេតនា។ អ្នកឃើញហើយ មានការដាស់តឿនជាច្រើនដែលយើងកំពុងប្រឈមមុខនឹងវិបត្តិអត្ថិភាពរបស់ AI ដែល AI នឹងកាន់កាប់ពិភពលោក ហើយបំផ្លាញមនុស្សជាតិ សូមមើល តំណភ្ជាប់នៅទីនេះ សម្រាប់ការវិភាគរបស់ខ្ញុំលើប្រភេទនៃការទាមទារទាំងនោះ។

ការប្រើប្រាស់សារព្រមាន AI អាច "បំផុសគំនិត" មនុស្សមួយចំនួនឱ្យជឿថាទីបញ្ចប់គឺជិតមកដល់ហើយ។ ហេតុអ្វីបានជាសារផ្សេងទៀតនឹងលេចឡើងឥឡូវនេះ? ប្រាកដណាស់ វាគឺជាការចង្អុលបង្ហាញថា ទីបំផុត AI កំពុងត្រៀមខ្លួនដើម្បីក្លាយជាអ្នកគ្រប់គ្រងដែលគៀបសង្កត់របស់យើង។

ប្រភេទនៃលទ្ធផលដ៏ក្រៀមក្រំគួរឱ្យអស់សង្ឃឹមនៃការព្យាយាមធ្វើរឿងត្រឹមត្រូវដោយការធ្វើឱ្យសាធារណៈជនដឹងពីរបៀបដែល AI អាចត្រូវបានបញ្ចូលជាមួយនឹងសមត្ថភាពរើសអើង ឬផ្សេងទៀត អាយអេសសម្រាប់អាក្រក់ ទិដ្ឋភាព

សន្និដ្ឋាន

លោក James Russell Lowell ដែលជាកវីជនជាតិអាមេរិកដ៏ល្បីល្បាញ ធ្លាប់បាននិយាយដូច្នេះថា «បទពិសោធន៍មួយបន្លាគឺមានតម្លៃសម្រាប់ការព្រមានទាំងមូល»។

ខ្ញុំលើកយកការកត់សម្គាល់ដ៏ខ្ពង់ខ្ពស់ដើម្បីធ្វើសេចក្តីសន្និដ្ឋានមួយចំនួនអំពីបញ្ហានៃការព្រមាន AI ឬសារសុវត្ថិភាព។

ឱកាសគឺថា ទាល់តែយើងមានការយល់ឃើញយ៉ាងទូលំទូលាយនៃ AI ដែលកំពុងធ្វើអំពើអាក្រក់នោះ វានឹងមិនមានការត្អូញត្អែរច្រើនចំពោះសារព្រមានដែលទាក់ទងនឹង AI នោះទេ។ អ្នកបង្កើត AI ទាំងនោះដែលជ្រើសរើសធ្វើដូច្នេះដោយស្ម័គ្រចិត្ដ ប្រហែលជាត្រូវបានគេសរសើរ ទោះបីជាពួកគេក៏អាចរកឃើញថាពួកគេត្រូវបានគេយាយីដោយអយុត្តិធម៌ដោយអចេតនាក៏ដោយ។ និស្សិតមួយចំនួនអាចដើរតាមពួកគេសម្រាប់ការប្រើប្រាស់ AI ដែលហាក់ដូចជាត្រូវការការព្រមាន ដើម្បីចាប់ផ្តើម ទន្ទឹមនឹងនោះការធ្វេសប្រហែសក្នុងការដឹងថាពួកគេកំពុងព្យាយាមទៅមុន ហើយអ្នកបង្កើត AI ផ្សេងទៀតទាំងអស់គឺយឺតយ៉ាវ។

ហ៊ាន បើអ្នកធ្វើ ប្រហែលមិនហ៊ានទេ បើមិនធ្វើ។

ការពិចារណាមួយទៀតទាក់ទងនឹងការបង្វែរអ្វីដែលហាក់ដូចជាគំនិតល្អ ទៅជាការអនុវត្តជាក់ស្តែង និងមានប្រយោជន៍។ វាងាយស្រួលក្នុងការគ្រវីដៃរបស់អ្នក ហើយស្រែកដោយមិនច្បាស់លាស់ចំពោះខ្យល់ដែល AI គួរតែមានសារព្រមាន និងសុវត្ថិភាព។ ផ្នែកលំបាកកើតឡើងនៅពេលសម្រេចចិត្តថាតើសារទាំងនោះគួរជាអ្វី ពេលណា និងកន្លែងដែលពួកគេគួរត្រូវបានបង្ហាញ ថាតើតម្លៃរបស់ពួកគេទទួលបានអត្ថប្រយោជន៍គ្រប់គ្រាន់ ឬកម្រិតណាជាដើម។

នៅទីនេះ យើងនឹងផ្តល់ឱ្យ James Russell Lowell ពាក្យចុងក្រោយ (តាមបែបកំណាព្យ) លើប្រធានបទនេះសម្រាប់ពេលនេះ៖ "ការច្នៃប្រឌិតមិនមែនជាការស្វែងរកវត្ថុនោះទេ ប៉ុន្តែការធ្វើឱ្យអ្វីមួយចេញពីវាបន្ទាប់ពីវាត្រូវបានរកឃើញ។"

ស្មាន​ដល់​ពេល​ត្រូវ​ដោះ​ដៃ​អាវ​របស់​យើង​ឡើង​ទៅ​ធ្វើ​ការ​នេះ។ ហើយនោះមិនមែនគ្រាន់តែជាការព្រមាននោះទេ វាគឺជាសកម្មភាពមួយ។

ប្រភព៖ https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety- ការព្រមាន-on-all-existing-and-future-ai/