ក្រមសីលធម៌ AI ដែលនិយាយថា AI គួរតែត្រូវបានដាក់ឱ្យប្រើប្រាស់ជាពិសេសនៅពេលដែលភាពលំអៀងរបស់មនុស្សមានច្រើន។

មនុស្សត្រូវដឹងពីដែនកំណត់របស់វា។

អ្នកអាចរំលឹកឡើងវិញនូវខ្សែបន្ទាត់ដ៏ល្បីល្បាញអំពីការដឹងពីដែនកំណត់របស់យើង ដូចដែលបាននិយាយយ៉ាងក្រៀមក្រំដោយតួអង្គ Dirty Harry នៅក្នុងខ្សែភាពយន្តឆ្នាំ 1973 ដែលមានចំណងជើងថា កម្លាំង Magnum (តាមការនិយាយរបស់តារាសម្តែង Clint Eastwood ក្នុងតួនាទីមិនអាចបំភ្លេចបានរបស់គាត់ជាអធិការ Harry Callahan) ។ គំនិតទូទៅគឺថា ពេលខ្លះយើងមានទំនោរមើលរំលងដែនកំណត់ផ្ទាល់ខ្លួនរបស់យើង ហើយយកខ្លួនយើងចូលទៅក្នុងទឹកក្តៅតាមនោះ។ មិនថាដោយសារភាពល្ងង់ខ្លៅ ភាពអត្មានិយម ឬគ្រាន់តែខ្វាក់ភ្នែកចំពោះសមត្ថភាពផ្ទាល់ខ្លួនរបស់យើងទេ សិក្ខាបទនៃការយល់ដឹង និងពិចារណាឱ្យបានច្បាស់លាស់ពីភាពខ្វះខាត និងការខ្វះខាតរបស់យើងគឺសមហេតុផល និងមានប្រយោជន៍ច្រើន។

ចូរយើងបន្ថែមការកែប្រែថ្មីទៅផ្នែកនៃដំបូន្មាន។

Artificial Intelligence (AI) បានដឹងពីដែនកំណត់របស់វា។

តើ​ខ្ញុំ​មាន​ន័យ​យ៉ាង​ណា​ចំពោះ​ការ​បំប្លែង​នៃ​ឃ្លា​ដែល​គួរ​ឲ្យ​គោរព​នោះ?

ប្រែថាការប្រញាប់ប្រញាល់ដំបូងក្នុងការយក AI សម័យថ្មីមកប្រើជាអ្នកដោះស្រាយបញ្ហាពិភពលោកប្រកបដោយក្តីសង្ឃឹម បានក្លាយទៅជាភាពស្រពិចស្រពិល និងពោរពេញដោយភក់ ដោយការយល់ដឹងថា AI សព្វថ្ងៃនេះមានដែនកំណត់ធ្ងន់ធ្ងរ។ យើង​បាន​ចេញ​ពី​ចំណង​ជើង​ដែល​លើក​ឡើង​នៃ​ អាយអេសដើម្បីភាពល្អ ហើយបានរកឃើញថាខ្លួនយើងកាន់តែជាប់គាំង អាយអេសសម្រាប់អាក្រក់. អ្នកឃើញទេ ប្រព័ន្ធ AI ជាច្រើនត្រូវបានបង្កើតឡើង និងបំពាក់ដោយភាពលំអៀងខាងពូជសាសន៍ និងយេនឌ័រ ហើយនិងវិសមភាពដ៏គួរឱ្យភ័យខ្លាចជាច្រើនផ្សេងទៀត។

សម្រាប់ការគ្របដណ្តប់យ៉ាងទូលំទូលាយ និងបន្តរបស់ខ្ញុំនៃ AI Ethics និង Ethical AI សូមមើល តំណភ្ជាប់នៅទីនេះ និង តំណភ្ជាប់នៅទីនេះ, គ្រាន់តែឈ្មោះមួយចំនួន។

ភាពលំអៀងដែលត្រូវបានរកឃើញនៅក្នុងប្រព័ន្ធ AI ទាំងនេះមិនមែនជាអ្វីដែលយើងត្រូវនិយាយថា "ចេតនា" ប្រភេទដែលយើងនឹងតំណាងឱ្យអាកប្បកិរិយារបស់មនុស្សនោះទេ។ ខ្ញុំ​លើក​ឡើង​នេះ​ដើម្បី​បញ្ជាក់​ថា AI សព្វថ្ងៃ​មិន​សូវ​មាន​អារម្មណ៍​ទេ។ ថ្វីត្បិតតែមានចំណងជើងដែលនិយាយខុសពីនេះក៏ដោយ ក៏មិនមាន AI នៅកន្លែងណាដែលសូម្បីតែចូលមកជិតមនោសញ្ចេតនា។ លើសពីនេះ យើងមិនដឹងពីរបៀបយក AI ចូលទៅក្នុងតង្កៀបនៃអារម្មណ៍នោះទេ បូករួមទាំងគ្មាននរណាម្នាក់អាចបញ្ជាក់បានថា តើយើងនឹងអាចទទួលបាន AI ដែរឬទេ។ ប្រហែល​ជា​ថ្ងៃ​ណាមួយ​វា​នឹង​កើត​ឡើង​ឬ​ក៏​ប្រហែល​ជា​មិន​ខាន។

ដូច្នេះ ចំណុចរបស់ខ្ញុំគឺថា យើងមិនអាចកំណត់ចេតនាជាពិសេសចំពោះប្រភេទនៃ AI ដែលយើងមាននាពេលបច្ចុប្បន្ននេះទេ។ បើនិយាយដូច្នេះ យើងអាចកំណត់ចេតនាយ៉ាងបរិបូរណ៍ទៅអ្នកដែលកំពុងបង្កើតប្រព័ន្ធ AI ។ អ្នកអភិវឌ្ឍន៍ AI មួយចំនួនមិនបានដឹងពីការពិតដែលថាពួកគេបានបង្កើតប្រព័ន្ធ AI ដែលផ្ទុកនូវភាពមិនអនុគ្រោះ និងអាចជាការលំអៀងខុសច្បាប់។ ទន្ទឹមនឹងនេះដែរ អ្នកអភិវឌ្ឍន៍ AI ផ្សេងទៀតដឹងថាពួកគេកំពុងបង្កើតភាពលំអៀងទៅក្នុងប្រព័ន្ធ AI របស់ពួកគេ ដោយអាចធ្វើដូច្នេះក្នុងលក្ខណៈខុសគោលបំណង។

ទោះ​ជា​យ៉ាង​ណា​ក៏​ដោយ លទ្ធផល​គឺ​នៅ​តែ​មើល​ទៅ​មិន​ទំនង និង​ទំនង​ជា​មិន​ស្រប​ច្បាប់។

កិច្ចខិតខំប្រឹងប្រែងដ៏រឹងមាំកំពុងដំណើរការដើម្បីផ្សព្វផ្សាយគោលការណ៍ក្រមសីលធម៌ AI ដែលនឹងបំភ្លឺដល់អ្នកអភិវឌ្ឍន៍ AI និងផ្តល់ការណែនាំសមរម្យសម្រាប់ការដឹកនាំជម្រះភាពលំអៀងទៅក្នុងប្រព័ន្ធ AI របស់ពួកគេ។ នេះនឹងជួយក្នុងទម្រង់ពីរ។ ទីមួយ ការបង្កើត AI ទាំងនោះនឹងលែងមានលេសដែលត្រៀមរួចជាស្រេចថា ពួកគេគ្រាន់តែមិនបានយល់ដឹងអំពីសិក្ខាបទណាដែលគួរអនុវត្តតាម។ ទីពីរ អ្នកដែលងាកចេញពីលក្ខខណ្ឌ Ethical AI នឹងត្រូវបានចាប់បានយ៉ាងងាយស្រួល និងបង្ហាញឱ្យឃើញថាជាការបញ្ចៀសនូវអ្វីដែលពួកគេត្រូវបានព្រមានជាមុនឱ្យធ្វើ និងមិនធ្វើ។

សូមចំណាយពេលបន្តិច ដើម្បីពិចារណាដោយសង្ខេបនូវសិក្ខាបទសីលធម៌ AI សំខាន់ៗមួយចំនួន ដើម្បីបង្ហាញពីអ្វីដែលអ្នកបង្កើត AI គួរតែគិត និងអនុវត្តយ៉ាងម៉ត់ចត់ពីគោលជំហរសីលធម៌ AI ។

នេះ​បើ​តាម​ការ​បញ្ជាក់​របស់​បុរី​វ៉ាទីកង់ ទីក្រុងរ៉ូមអំពាវនាវឱ្យមានក្រមសីលធម៌ AI ហើយដូចដែលខ្ញុំបានគ្របដណ្តប់ស៊ីជម្រៅ តំណភ្ជាប់នៅទីនេះទាំងនេះគឺជាគោលការណ៍សីលធម៌ AI ចម្បងចំនួនប្រាំមួយដែលបានកំណត់របស់ពួកគេ៖

  • តម្លាភាព: ជាគោលការណ៍ ប្រព័ន្ធ AI ត្រូវតែអាចពន្យល់បាន។
  • បញ្ចូល៖ តម្រូវការរបស់មនុស្សគ្រប់រូបត្រូវតែយកមកពិចារណា ដើម្បីឲ្យមនុស្សគ្រប់រូបទទួលបានអត្ថប្រយោជន៍ ហើយបុគ្គលទាំងអស់អាចទទួលបានលក្ខខណ្ឌល្អបំផុតដើម្បីបង្ហាញពីខ្លួនឯង និងអភិវឌ្ឍ។
  • ទំនួលខុសត្រូវ: អ្នកដែលរចនា និងដាក់ពង្រាយការប្រើប្រាស់ AI ត្រូវតែដំណើរការដោយការទទួលខុសត្រូវ និងតម្លាភាព
  • មិនលំអៀង៖ កុំបង្កើត ឬធ្វើសកម្មភាពដោយលំអៀង ការពារភាពត្រឹមត្រូវ និងសេចក្តីថ្លៃថ្នូររបស់មនុស្ស
  • ភាពជឿជាក់៖ ប្រព័ន្ធ AI ត្រូវតែអាចដំណើរការដោយភាពជឿជាក់
  • សុវត្ថិភាព និងឯកជនភាព៖ ប្រព័ន្ធ AI ត្រូវតែដំណើរការដោយសុវត្ថិភាព និងគោរពភាពឯកជនរបស់អ្នកប្រើប្រាស់។

ដូចដែលបានបញ្ជាក់ដោយក្រសួងការពារជាតិសហរដ្ឋអាមេរិក (DoD) នៅក្នុងរបស់ពួកគេ។ គោលការណ៍សីលធម៌សម្រាប់ការប្រើប្រាស់បញ្ញាសិប្បនិម្មិត ហើយដូចដែលខ្ញុំបានគ្របដណ្តប់ស៊ីជម្រៅ តំណភ្ជាប់នៅទីនេះនេះគឺជាគោលការណ៍សីលធម៌ AI ចម្បងចំនួនប្រាំមួយរបស់ពួកគេ៖

  • ទទួលខុសត្រូវ: បុគ្គលិក DoD នឹងអនុវត្តកម្រិតនៃការវិនិច្ឆ័យ និងការថែទាំសមស្រប ខណៈពេលដែលនៅតែទទួលខុសត្រូវចំពោះការអភិវឌ្ឍន៍ ការដាក់ពង្រាយ និងការប្រើប្រាស់សមត្ថភាព AI ។
  • សមភាព៖ នាយកដ្ឋាននឹងចាត់វិធានការដោយចេតនា ដើម្បីកាត់បន្ថយភាពលំអៀងដោយអចេតនានៅក្នុងសមត្ថភាព AI ។
  • អាចតាមដានបាន៖ សមត្ថភាព AI របស់នាយកដ្ឋាននឹងត្រូវបានបង្កើតឡើង និងដាក់ឱ្យប្រើប្រាស់ ដែលបុគ្គលិកពាក់ព័ន្ធមានការយល់ដឹងសមស្របអំពីបច្ចេកវិទ្យា ដំណើរការអភិវឌ្ឍន៍ និងវិធីសាស្រ្តប្រតិបត្តិការដែលអនុវត្តចំពោះសមត្ថភាព AI រួមទាំងវិធីសាស្រ្តដែលមានតម្លាភាព និងសវនកម្ម ប្រភពទិន្នន័យ និងនីតិវិធីរចនា និងឯកសារ។
  • អាចជឿទុកចិត្តបាន: សមត្ថភាព AI របស់នាយកដ្ឋាននឹងមានការប្រើប្រាស់ច្បាស់លាស់ និងច្បាស់លាស់ ហើយសុវត្ថិភាព សុវត្ថិភាព និងប្រសិទ្ធភាពនៃសមត្ថភាពទាំងនោះនឹងត្រូវឆ្លងកាត់ការធ្វើតេស្ត និងការធានានៅក្នុងការប្រើប្រាស់ដែលបានកំណត់នៅទូទាំងវដ្តជីវិតរបស់ពួកគេ។
  • អាចគ្រប់គ្រងបាន៖ នាយកដ្ឋាននឹងរចនា និងវិស្វកម្មសមត្ថភាព AI ដើម្បីបំពេញមុខងារដែលបានគ្រោងទុក ខណៈពេលដែលមានសមត្ថភាពក្នុងការរកឃើញ និងជៀសវាងផលវិបាកដែលមិនចង់បាន និងសមត្ថភាពក្នុងការផ្តាច់ ឬបិទប្រព័ន្ធដែលបានដាក់ពង្រាយ ដែលបង្ហាញពីអាកប្បកិរិយាអចេតនា។

ខ្ញុំក៏បានពិភាក្សាផងដែរអំពីការវិភាគសមូហភាពផ្សេងៗនៃគោលការណ៍សីលធម៌ AI រួមទាំងការគ្របដណ្តប់លើសំណុំដែលបង្កើតឡើងដោយអ្នកស្រាវជ្រាវដែលបានពិនិត្យ និងបង្រួមខ្លឹមសារនៃគោលការណ៍សីលធម៌ AI ជាតិ និងអន្តរជាតិជាច្រើននៅក្នុងក្រដាសដែលមានចំណងជើងថា "ទេសភាពសកលនៃគោលការណ៍ណែនាំសីលធម៌ AI" (បោះពុម្ពផ្សាយ ក្នុង ធម្មជាតិ) ហើយការគ្របដណ្តប់របស់ខ្ញុំរុករកនៅ តំណភ្ជាប់នៅទីនេះដែលនាំទៅដល់បញ្ជីគន្លឹះនេះ៖

  • តម្លាភាព
  • យុត្តិធម៌ និងយុត្តិធម៌
  • ភាពមិនអាក្រក់
  • ការទទួលខុសត្រូវ
  • ភាពឯកជន
  • អត្ថប្រយោជន៍
  • សេរីភាព និងស្វ័យភាព
  • ការជឿទុកចិត្ត
  • និរន្តរភាព
  • សេចក្តីថ្លៃថ្នូរ
  • សាមគ្គីភាព

ដូចដែលអ្នកអាចទាយដោយផ្ទាល់ ការព្យាយាមកំណត់ចំណុចជាក់លាក់នៃគោលការណ៍ទាំងនេះអាចជារឿងពិបាកធ្វើណាស់។ កាន់តែពិសេសជាងនេះទៅទៀត ការខិតខំប្រឹងប្រែងដើម្បីប្រែក្លាយគោលការណ៍ដ៏ទូលំទូលាយទាំងនោះទៅជាអ្វីដែលជាក់ស្តែង និងលម្អិតគ្រប់គ្រាន់ដើម្បីប្រើប្រាស់នៅពេលបង្កើតប្រព័ន្ធ AI ក៏ជាចំណុចពិបាកមួយក្នុងការបំបែក។ វាជាការងាយស្រួលក្នុងការធ្វើការគ្រវីដៃខ្លះៗអំពីអ្វីដែល AI Ethics precepts និងរបៀបដែលពួកគេគួរតែត្រូវបានគេសង្កេតឃើញជាទូទៅ ខណៈពេលដែលវាជាស្ថានភាពស្មុគស្មាញជាងនៅលើការសរសេរកូដ AI ដែលត្រូវតែជាជ័រកៅស៊ូដែលអាចផ្ទៀងផ្ទាត់បានដែលជួបនឹងផ្លូវ។

គោលការណ៍ក្រមសីលធម៌ AI នឹងត្រូវប្រើប្រាស់ដោយអ្នកអភិវឌ្ឍន៍ AI រួមជាមួយនឹងអ្នកដែលគ្រប់គ្រងកិច្ចខិតខំប្រឹងប្រែងក្នុងការអភិវឌ្ឍន៍ AI និងសូម្បីតែអ្នកដែលនៅទីបំផុតអនុវត្ត និងថែទាំប្រព័ន្ធ AI ។ អ្នកពាក់ព័ន្ធទាំងអស់នៅទូទាំងវដ្តជីវិតនៃការអភិវឌ្ឍន៍ និងការប្រើប្រាស់ AI ទាំងមូលត្រូវបានពិចារណាក្នុងវិសាលភាពនៃការគោរពតាមបទដ្ឋានដែលត្រូវបានបង្កើតឡើងនៃ Ethical AI ។ នេះគឺជាការគូសបញ្ជាក់ដ៏សំខាន់មួយចាប់តាំងពីការសន្មត់ជាធម្មតាគឺថា "មានតែអ្នកសរសេរកូដ" ឬអ្នកដែលកម្មវិធី AI ប៉ុណ្ណោះដែលត្រូវប្រកាន់ខ្ជាប់នូវគោលគំនិតសីលធម៌របស់ AI ។ សូម​ដឹង​ថា វា​ត្រូវ​ការ​ភូមិ​មួយ​ដើម្បី​បង្កើត និង​ធ្វើ​ការ​វាយ​តម្លៃ AI ។ ដែលភូមិទាំងមូលត្រូវប្រកាន់ខ្ជាប់នូវក្រមសីលធម៌ AI ។

ទោះយ៉ាងណាក៏ដោយ ឥឡូវនេះខ្ញុំបានទទួលនៅលើតុដែល AI អាចមានភាពលំអៀង យើងទាំងអស់គ្នាប្រហែលជាយល់ព្រមចំពោះការពិតជាក់ស្តែងទាំងពីរនេះ៖

1. មនុស្សអាចមានភាពលំអៀងជាច្រើន ហើយអាចធ្វើសកម្មភាពលើពួកគេ។

2. AI អាចមានភាពលំអៀងជាច្រើន ហើយអាចធ្វើសកម្មភាពលើភាពលំអៀងទាំងនោះ

ខ្ញុំមានការស្អប់ខ្ពើមបន្តិចក្នុងការជង់មនុស្សធៀបនឹង AI នៅក្នុងបរិបទនោះ ព្រោះវាប្រហែលជាអាចបញ្ជាក់បានថា AI មានសមត្ថភាពបញ្ជូនមនុស្សស្មើរនឹងមនុស្ស។ នេះប្រាកដជាមិនដូច្នោះទេ។ ខ្ញុំនឹងត្រលប់មកវិញមួយរំពេចចំពោះការព្រួយបារម្ភដែលកំពុងកើនឡើងអំពីការធ្វើនិរន្តរភាពនៃ AI បន្តិចក្រោយមកនៅក្នុងការពិភាក្សានេះ។

តើមួយណាអាក្រក់ជាងនេះទៅទៀត មនុស្សដែលបង្ហាញភាពលំអៀង ឬ AI ដែលធ្វើដូច្នេះ?

ខ្ញុំ​ហ៊ាន​និយាយ​ថា​សំណួរ​ចោទ​ជា​ជម្រើស​មួយ​ក្នុង​ចំណោម​ជម្រើស​ទាំង​នោះ។ វា​ជា​សុភាសិត​តិច​នៃ​អំពើ​អាក្រក់​ពីរ ដែល​គេ​អាច​ប្រកែក​បាន។ យើងចង់ឱ្យមនុស្សមិនបង្កើតភាពលំអៀង។ យើង​ចង់​បន្ថែម​ទៀត​ថា បើ​ទោះ​ជា​មនុស្ស​មាន​ភាព​លម្អៀង​ទៅ​ខាង​ណា​ក៏​ដោយ ពួក​គេ​នឹង​មិន​ប្រព្រឹត្ត​ទៅ​លើ​ភាព​លំអៀង​ទាំង​នោះ។ ដូចគ្នានេះដែរអាចត្រូវបាននិយាយយ៉ាងត្រឹមត្រូវអំពី AI ។ យើងប្រាថ្នាថា AI មិនបានបង្កប់ភាពលំអៀងដែលមិនលំអៀង ហើយថាទោះបីជាមានភាពលំអៀងខាងក្នុងដែល AI នឹងមិនធ្វើសកម្មភាពលើពួកគេក៏ដោយ។

បំណងប្រាថ្នាទោះបីជាមិនចាំបាច់ដំណើរការពិភពលោកក៏ដោយ (សម្រាប់ការវិភាគរបស់ខ្ញុំអំពីការកើនឡើងនិងការរំខាននៃអ្វីដែលហៅថា ការបំពេញបំណងប្រាថ្នារបស់ AI ដោយសង្គមទាំងមូលសូមមើល តំណភ្ជាប់នៅទីនេះ).

មិនអីទេ យើងច្បាស់ជាចង់ឱ្យមនុស្សដឹងពីដែនកំណត់របស់វា។ មានសារៈសំខាន់ក្នុងការទទួលស្គាល់នៅពេលដែលអ្នកមានភាពលំអៀង។ វាមានសារៈសំខាន់ស្មើគ្នាក្នុងការព្យាយាមទប់ស្កាត់ភាពលំអៀងដែលមិនគួរឱ្យជឿទាំងនោះពីការបញ្ចូលទៅក្នុងសកម្មភាព និងការសម្រេចចិត្តរបស់អ្នក។ អាជីវកម្មសព្វថ្ងៃនេះកំពុងព្យាយាមគ្រប់បែបយ៉ាងដើម្បីរក្សាបុគ្គលិករបស់ពួកគេពីការធ្លាក់ចូលទៅក្នុងភាពលំអៀងដែលមិនមានភាពលំអៀង។ ការបណ្តុះបណ្តាលជំនាញកំពុងត្រូវបានផ្តល់ដល់និយោជិតអំពីរបៀបអនុវត្តការងាររបស់ពួកគេប្រកបដោយក្រមសីលធម៌។ ដំណើរការត្រូវបានរៀបចំឡើងជុំវិញនិយោជិត ដើម្បីជូនដំណឹងដល់ពួកគេ នៅពេលដែលពួកគេហាក់បីដូចជាបង្ហាញនូវភាពគ្មានសីលធម៌។ ល​ល។

មធ្យោបាយមួយទៀតនៃការទប់ទល់នឹងមនុស្ស និងភាពលំអៀងរបស់ពួកគេគឺដើម្បីធ្វើឱ្យការងារផ្អែកលើមនុស្សដោយស្វ័យប្រវត្តិ។ បាទ / ចាសគ្រាន់តែដកមនុស្សចេញពីរង្វិលជុំ។ កុំអនុញ្ញាតឱ្យមនុស្សធ្វើកិច្ចការធ្វើការសម្រេចចិត្ត ហើយអ្នកសន្មតថាលែងមានការព្រួយបារម្ភអំពីភាពលំអៀងរបស់មនុស្សចំពោះភាពលំអៀងណាមួយទៀតហើយ។ មិនមានមនុស្សចូលរួមទេ ដូច្នេះហើយបញ្ហានៃភាពលំអៀងរបស់មនុស្សហាក់ដូចជាត្រូវបានដោះស្រាយ។

ខ្ញុំលើកយករឿងនេះឡើង ពីព្រោះយើងកំពុងឃើញការផ្លាស់ប្តូរបន្តិចម្តងៗ និងទំហំធំឆ្ពោះទៅរកការប្រើប្រាស់ AI នៅក្នុងវិធីធ្វើការសម្រេចចិត្ត (ADM)។ ប្រសិនបើអ្នកអាចជំនួសបុគ្គលិកមនុស្សដោយ AI នោះ ហាងឆេងគឺថាអត្ថប្រយោជន៍ជាច្រើននឹងកើតឡើង។ ដូចដែលបានបញ្ជាក់រួចមកហើយ អ្នកនឹងលែងបារម្ភពីភាពលំអៀងរបស់មនុស្សរបស់បុគ្គលិកនោះទៀតហើយ (អ្នកដែលលែងធ្វើការងារនោះ)។ ឱកាសគឺថា AI នឹងមានតម្លៃទាបជាងជាទូទៅ បើប្រៀបធៀបទៅនឹងរយៈពេលវែង។ អ្នកលះបង់រាល់ការលំបាកផ្សេងៗដែលកើតឡើងដោយផ្នែក និងផ្នែកជាមួយកម្មករ។ ល។

សំណើ​ដែល​កំពុង​មាន​មូលដ្ឋាន​ហាក់​ដូច​ជា៖ នៅពេលព្យាយាមសម្រេចចិត្តកន្លែងដែលត្រូវដាក់ AI ល្អបំផុត សូមក្រឡេកមើលដំបូងទៅកាន់ការកំណត់ដែលពាក់ព័ន្ធនឹងការលំអៀងរបស់មនុស្សរួចហើយដោយកម្មកររបស់អ្នក ហើយសម្រាប់ការលំអៀងទាំងនោះកំពុងកាត់បន្ថយ ឬបើមិនដូច្នេះទេវាធ្វើឱ្យស្មុគស្មាញខ្លាំងពេកដល់កិច្ចការធ្វើការសម្រេចចិត្តជាក់លាក់។

ចំណុចខាងក្រោមគឺថា វាហាក់ដូចជាមានការប្រុងប្រយ័ត្នក្នុងការប្រមូលផលចំណេញច្រើនបំផុតសម្រាប់ប្រាក់របស់អ្នកក្នុងលក្ខខណ្ឌនៃការវិនិយោគលើ AI ដោយមានបំណងឆ្ពោះទៅរកកិច្ចការធ្វើការសម្រេចចិត្តរបស់មនុស្សដែលមានការលាតត្រដាងខ្ពស់ដែលពិបាកគ្រប់គ្រងពីទស្សនវិស័យ infusion ដែលមិនលំអៀង។ ដក​បុគ្គលិក​ក្នុង​តួនាទី​នោះ​ចេញ។ ជំនួសពួកវាដោយ AI ។ ការសន្មត់គឺថា AI នឹងមិនមានភាពលំអៀងបែបនេះទេ។ ដូច្នេះហើយ អ្នកអាចមាននំខេករបស់អ្នក ហើយញ៉ាំវាផងដែរ ពោលគឺ ទទួលបានកិច្ចការសម្រេចចិត្ត ហើយធ្វើនោះដកផ្នែកសីលធម៌ និងច្បាប់នៃភាពលំអៀងដែលមិនលំអៀង។

នៅពេលអ្នកសរសេរវាចេញ ROI (ត្រឡប់មកវិញលើការវិនិយោគ) ទំនងជាធ្វើឱ្យការទទួលយក AI ជាជម្រើសដែលគ្មានគំនិត។

នេះជារបៀបដែលជាធម្មតាលេងចេញ។

រកមើលនៅក្នុងក្រុមហ៊ុនរបស់អ្នក ហើយព្យាយាមកំណត់អត្តសញ្ញាណកិច្ចការធ្វើការសម្រេចចិត្តដែលប៉ះពាល់ដល់អតិថិជន។ ក្នុង​ចំណោម​ការងារ​ទាំង​នោះ តើ​ការងារ​មួយ​ណា​ទំនង​ជា​ត្រូវ​បាន​គេ​បោក​បញ្ឆោត​មិន​សមរម្យ​បំផុត ប្រសិន​បើ​កម្មករ​មាន​ភាព​លម្អៀង? ប្រសិនបើអ្នកបានព្យាយាមទប់ទល់នឹងភាពលំអៀងទាំងនោះរួចហើយ ប្រហែលជាអ្នកទុកឱ្យអ្វីៗនៅដដែល។ ម៉្យាងវិញទៀត ប្រសិនបើភាពលំអៀងនៅតែបន្តលេចឡើង ហើយការខិតខំប្រឹងប្រែងដើម្បីកម្ចាត់ពួកវាចេញគឺពិបាកចិត្ត សូមពិចារណាទម្លាក់ AI ពាក់ព័ន្ធមួយចំនួនទៅក្នុងតួនាទីនោះ។ កុំ​រក្សា​កម្មករ​ឱ្យ​នៅ​ក្នុង​ភាព​ច្របូកច្របល់​ព្រោះ​ពួកគេ​អាច​ជាន់​លើ AI ឬ​រុញ AI ត្រឡប់​ទៅ​ក្នុង​ទីជ្រៅ​បំផុត​នៃ​ភាពលំអៀង​។ ដូចគ្នានេះផងដែរ ត្រូវប្រាកដថា AI អាចអនុវត្តការងារបានយ៉ាងស្ទាត់ជំនាញ ហើយអ្នកបានចាប់យកមុខនៃការសម្រេចចិត្តបានគ្រប់គ្រាន់ដើម្បីបំពេញការងារ។

លាងជម្រះនិងធ្វើម្តងទៀត។

ខ្ញុំដឹងថា វាហាក់បីដូចជាការយល់ឃើញត្រង់ៗ ទោះបីជាដឹងថាមានវិធីជាច្រើនដែលការជំនួសបុគ្គលិករបស់មនុស្សដោយ AI អាចងាយនឹងបាត់បង់ក៏ដោយ។ ក្រុមហ៊ុនជាច្រើនបានខ្នះខ្នែងធ្វើសកម្មភាពបែបនេះ ហើយមិនបានគិតពិចារណាពីរបៀបធ្វើដូច្នេះទេ។ ជាលទ្ធផល ពួកគេច្រើនតែបង្កើតភាពរញ៉េរញ៉ៃច្រើនជាងអ្វីដែលពួកគេមាននៅលើដៃរបស់ពួកគេដើម្បីចាប់ផ្តើម។

ខ្ញុំចង់បញ្ជាក់ និងសង្កត់សំឡេងថា AI មិនមែនជា panacea ទេ។

និយាយទៅ វាមានឧបសគ្គដ៏ធំមួយអំពីភាពស្អាតស្អំ ហាក់ដូចជាការចោលអ្នកធ្វើការសម្រេចចិត្តដែលលំអៀងដោយមនុស្សជាមួយនឹង AI ដែលមិនលំអៀង។ ឧបសគ្គគឺថាអ្នកអាចគ្រាន់តែជំនួសសំណុំនៃភាពលំអៀងដែលមិនមានភាពលំអៀងទៅមួយផ្សេងទៀត។ តាម​ការ​ចង្អុល​បង្ហាញ​មុន​នេះ AI អាច​មាន​ភាព​លំអៀង​មិន​ចុះ​សម្រុង ហើយ​អាច​ធ្វើ​ទៅ​លើ​ភាព​លំអៀង​ទាំង​នោះ។ ការ​សន្មត់​យ៉ាង​ម៉ឺងម៉ាត់​ថា​ការ​ផ្លាស់ប្តូរ​មនុស្ស​លម្អៀង​សម្រាប់ AI ដែលមិន​លំអៀង​គឺ​មិន​មែន​ជា​អ្វី​ដែល​វា​ត្រូវ​បាន​គេ​បំបែក​នោះទេ។

សរុបមក នេះជាកិច្ចព្រមព្រៀងនៅពេលមើលបញ្ហាយ៉ាងតឹងរ៉ឹងពីកត្តាលំអៀង៖

  • AI មិនមានការលំអៀងអ្វីឡើយ ហើយគិតថា ADM ដែលមានមូលដ្ឋានលើ AI ងាយស្រួលដាក់ពង្រាយ
  • AI មានភាពលំអៀងដូចគ្នាទៅនឹងមនុស្សដែលត្រូវបានជំនួស ហើយដូច្នេះ ADM ដែលមានមូលដ្ឋានលើ AI កំពុងមានបញ្ហា
  • AI ណែនាំពីភាពលំអៀងថ្មីដែលហួសពីមនុស្សដែលត្រូវបានជំនួស ហើយទំនងជានឹងធ្វើឱ្យអ្វីៗកាន់តែអាក្រក់ទៅតាមនោះ
  • ដំបូងឡើយ AI ហាក់បីដូចជាល្អ ហើយបន្ទាប់មកបន្តិចម្តងៗ ចូលទៅក្នុងភាពលំអៀង
  • ផ្សេងទៀត

យើងអាចស្រាយលទ្ធភាពទាំងនោះដោយសង្ខេប។

កំណែទីមួយគឺជាកំណែដ៏ល្អនៃអ្វីដែលអាចនឹងកើតឡើង។ AI មិនមានភាពលំអៀងទេ។ អ្នកដាក់ AI ចូលទៅក្នុងកន្លែង ហើយវាដំណើរការយ៉ាងអស្ចារ្យ។ ល្អ​សម្រាប់​អ្នក! ជាការពិតណាស់ មនុស្សម្នាក់នឹងសង្ឃឹមថា អ្នកក៏មានមធ្យោបាយដោះស្រាយការផ្លាស់ទីលំនៅរបស់បុគ្គលិកមនុស្សផងដែរ ដោយសារតែការរួមបញ្ចូល AI ។

ក្នុងករណីទី XNUMX អ្នកដាក់ AI ហើយរកឃើញថា AI កំពុងបង្ហាញភាពលំអៀងដូចគ្នាដែលកម្មករមនុស្សមាន។ តើនេះអាចទៅជាយ៉ាងណា? មធ្យោបាយទូទៅនៃការធ្លាក់ចូលទៅក្នុងអន្ទាក់នេះគឺដោយប្រើ Machine Learning (ML) និង Deep Learning (DL) ដោយផ្អែកលើទិន្នន័យដែលប្រមូលបាននៃរបៀបដែលមនុស្សនៅក្នុងតួនាទីនេះបានធ្វើការសម្រេចចិត្តពីមុន។

ទុកពេលឱ្យខ្ញុំពន្យល់បន្តិច។

ML/DL គឺជាទម្រង់នៃការផ្គូផ្គងលំនាំគណនា។ វិធីសាស្រ្តធម្មតាគឺអ្នកប្រមូលផ្តុំទិន្នន័យអំពីកិច្ចការធ្វើការសម្រេចចិត្ត។ អ្នកបញ្ចូលទិន្នន័យទៅក្នុងម៉ូដែលកុំព្យូទ័រ ML/DL ។ គំរូទាំងនោះស្វែងរកលំនាំគណិតវិទ្យា។ បន្ទាប់ពីស្វែងរកគំរូបែបនេះ ប្រសិនបើរកឃើញនោះ ប្រព័ន្ធ AI នឹងប្រើលំនាំទាំងនោះនៅពេលជួបទិន្នន័យថ្មី។ នៅពេលបង្ហាញទិន្នន័យថ្មី គំរូដែលផ្អែកលើ "ទិន្នន័យចាស់" ឬទិន្នន័យប្រវត្តិសាស្រ្តត្រូវបានអនុវត្តដើម្បីបង្ហាញការសម្រេចចិត្តបច្ចុប្បន្ន។

ខ្ញុំគិតថាអ្នកអាចទាយបានថាវាទៅណា ប្រសិនបើ​មនុស្ស​ដែល​បាន​ធ្វើ​កិច្ចការ​នេះ​អស់​ជាច្រើន​ឆ្នាំ​មក​ហើយ​នោះ​បាន​បញ្ចូល​ភាពលំអៀង​ដែល​មិន​លំអៀង​នោះ​គឺ​ថា​ទិន្នន័យ​បាន​ឆ្លុះ​បញ្ចាំង​ពី​ចំណុច​នេះ​តាម​វិធី​ដ៏​ស្រទន់ ប៉ុន្តែ​សំខាន់។ ការផ្គូផ្គងគំរូនៃការគណនារបស់ម៉ាស៊ីន ឬការសិក្សាជ្រៅនឹងព្យាយាមធ្វើត្រាប់តាមទិន្នន័យតាមគណិតវិទ្យា។ មិន​មាន​ភាព​ដូច​គ្នា​នៃ​សុភវិនិច្ឆ័យ​ឬ​ទិដ្ឋភាព​មនោសញ្ចេតនា​ផ្សេង​ទៀត​នៃ​ការ​ធ្វើ​គំរូ​ក្នុង​មួយ​ផ្នែក​នោះ​ទេ។

ជាងនេះទៅទៀត អ្នកអភិវឌ្ឍន៍ AI ប្រហែលជាមិនដឹងពីអ្វីដែលកំពុងកើតឡើងនោះទេ។ គណិតវិទ្យាអាកខេន អាចនឹងបង្កការលំបាកក្នុងការបញ្ចេញភាពលំអៀងដែលលាក់ទុកឥឡូវនេះ។ អ្នកនឹងសង្ឃឹមយ៉ាងត្រឹមត្រូវ ហើយរំពឹងថាអ្នកអភិវឌ្ឍន៍ AI នឹងសាកល្បងសម្រាប់ភាពលំអៀងដែលអាចកប់បាន ទោះបីជាវាពិបាកជាងវាក៏ដោយ។ ឱកាសដ៏រឹងមាំមួយមានដែលថា ទោះបីជាមានការធ្វើតេស្តយ៉ាងទូលំទូលាយថានឹងមានភាពលំអៀងនៅតែបង្កប់នៅក្នុងគំរូដែលផ្គូផ្គងគំរូនៃ ML/DL ក៏ដោយ។

អ្វី​ដែល​បាន​ប្រាប់ អ្នក​អាច​នឹង​បញ្ចប់​ទៅ​ជា​ការ៉េ​មួយ​វិញ។ ភាពលំអៀងដូចគ្នារបស់មនុស្សឥឡូវនេះត្រូវបានឆ្លុះបញ្ចាំងដោយការគណនានៅក្នុងប្រព័ន្ធ AI ។ អ្នក​មិន​បាន​លុប​បំបាត់​ការ​លំអៀង​នោះ​ទេ។

អាក្រក់ជាងនេះទៅទៀត អ្នកប្រហែលជាមិនសូវដឹងថា AI មានភាពលំអៀងទេ។ ក្នុង​ករណី​មនុស្ស​ជា​ធម្មតា អ្នក​ប្រហែល​ជា​នៅ​ការពារ​ខ្លួន​ថា​មនុស្ស​មាន​ការ​លំអៀង​មិន​ចុះ​សម្រុង។ នេះគឺជាការរំពឹងទុកជាមូលដ្ឋាន។ ការប្រើប្រាស់ AI អាចបញ្ចុះបញ្ចូលអ្នកដឹកនាំឱ្យជឿថា ស្វ័យប្រវត្តិកម្មបានដកចេញនូវភាពលំអៀងរបស់មនុស្សគ្រប់ប្រភេទ។ ដូច្នេះ​ហើយ​ពួក​គេ​កំពុង​តែ​តាំង​ខ្លួន​ឯង​ថា​បាន​បាញ់​សម្លាប់​ខ្លួន​ឯង។ ពួកគេ​បាន​កម្ចាត់​មនុស្ស​ដែល​ហាក់​ដូចជា​មិន​លំអៀង​ដោយ​ត្រូវ​បាន​ជំនួស​ដោយ AI ដែល​ត្រូវ​បាន​គេ​គិត​ថា​មិន​មាន​ភាពលំអៀង​នោះ ហើយ​ឥឡូវនេះ​បាន​ដាក់​ឱ្យ​ប្រើ​ប្រាស់ AI ដែល​ពោរពេញ​ទៅដោយ​ភាពលំអៀង​ដូចគ្នា​ដែល​គេ​ដឹង​ថា​មាន​ស្រាប់។

នេះ​អាច​ទទួល​បាន​អ្វី​ដែល​ពិត​ជា​ឆ្លង​ភ្នែក។ អ្នកប្រហែលជាបានដករនាំងការពារផ្សេងទៀតដែលត្រូវបានប្រើជាមួយកម្មករមនុស្សដែលត្រូវបានបង្កើតឡើងដើម្បីស្វែងរក និងការពារការលេចចេញនូវភាពលំអៀងរបស់មនុស្សដែលបានរំពឹងទុករួចហើយនោះ។ AI ឥឡូវនេះមានការគ្រប់គ្រងដោយឥតគិតថ្លៃ។ គ្មាន​អ្វី​នៅ​នឹង​កន្លែង​ដើម្បី​ចាប់​វា​មុន​ពេល​សម្ដែង​។ បន្ទាប់មក AI អាចចាប់ផ្តើមនាំអ្នកទៅកាន់ផ្លូវដ៏អាក្រក់នៃការប្រមូលផ្តុំដ៏ធំនៃសកម្មភាពលំអៀង។

ហើយអ្នកស្ថិតក្នុងស្ថានភាពឆ្គាំឆ្គង និងប្រហែលជាទទួលខុសត្រូវដែលអ្នកធ្លាប់បានដឹងអំពីភាពលំអៀង ហើយឥឡូវនេះបានអនុញ្ញាតឱ្យភាពលំអៀងទាំងនោះធ្វើឱ្យមានការបំផ្លិចបំផ្លាញ។ ប្រហែលជារឿងមួយដែលមិនធ្លាប់ជួបប្រទះនឹងភាពលំអៀងដែលមិនគួរឱ្យជឿបែបនេះ ហើយភ្លាមៗនោះ AI ចេញមកក្រៅពណ៌ខៀវ។ អ្នកប្រហែលជាព្យាយាមដោះសារនេះជាមួយ "អ្នកដែលទាយ" ប្រភេទនៃការរំខាន (ប្រហែលជាមិនគួរឱ្យជឿ) ។ ប៉ុន្តែឥឡូវនេះ ដើម្បីរៀបចំ AI ដែលកំពុងធ្វើសកម្មភាពដែលមិនលំអៀងដូចពីមុន ជាការប្រសើរណាស់ លេសរបស់អ្នកកាន់តែស្តើងទៅៗ។

ភាពលំអៀងលើបញ្ហានេះ រួមបញ្ចូល AI ដែលបង្ហាញពីភាពលំអៀងដែលមិនធ្លាប់ជួបប្រទះពីមុនមក នៅពេលដែលមនុស្សកំពុងបំពេញកិច្ចការនេះ។ អ្នក​អាច​និយាយ​បាន​ថា នេះ​ប្រហែល​ជា​ពិបាក​ជាង​ក្នុង​ការ​ទប់​ស្កាត់​ព្រោះ​វា​មាន​ភាព​លំអៀង "ថ្មី" ដែល​ក្រុមហ៊ុន​មិន​បាន​រក​ឃើញ​ពី​មុន​មក។ ទោះយ៉ាងណាក៏ដោយ នៅទីបញ្ចប់ ការដោះសារប្រហែលជាមិនផ្តល់ឱ្យអ្នកនូវការធូរស្រាលច្រើននោះទេ។ ប្រសិនបើប្រព័ន្ធ AI បានចូលទៅក្នុងទឹកដីដែលគ្មានសីលធម៌ និងគ្មានច្បាប់ នោះសត្វក្ងានរបស់អ្នកអាចនឹងត្រូវបានចម្អិន។

ចំណុចមួយទៀតដែលត្រូវចងចាំនោះគឺថា AI អាចចាប់ផ្តើមដំណើរការល្អ ហើយបន្ទាប់មកវាចូលទៅក្នុងភាពលំអៀងដែលមិនសមហេតុផល។ នេះទំនងជាជាពិសេសនៅពេលដែលការប្រើប្រាស់ Machine Learning ឬ Deep Learning កើតឡើងនៅលើមូលដ្ឋានបន្ត ដើម្បីរក្សា AI ឱ្យទាន់សម័យ។ ថាតើ ML/DL កំពុងធ្វើការក្នុងពេលជាក់ស្តែង ឬធ្វើបច្ចុប្បន្នភាពជាទៀងទាត់ក៏ដោយ ការយកចិត្តទុកដាក់គួរតែថាតើ AI ប្រហែលជាកំពុងទាញយកទិន្នន័យដែលឥឡូវនេះមានភាពលំអៀង ហើយដែលពីមុនមិនមានវត្តមាន។

សម្រាប់អ្នកដឹកនាំដែលគិតថាពួកគេទទួលបានអាហារថ្ងៃត្រង់ដោយឥតគិតថ្លៃដោយគ្រវីដៃវេទមន្តដើម្បីជំនួសបុគ្គលិកដែលមានភាពលំអៀងជាមួយនឹង AI នោះពួកគេកំពុងស្ថិតក្នុងការភ្ញាក់ដឹងខ្លួនដ៏ឈ្លើយបំផុត។ សូមមើលការពិភាក្សារបស់ខ្ញុំអំពីសារៈសំខាន់នៃការផ្តល់អំណាចដល់អ្នកដឹកនាំជាមួយនឹងសិក្ខាបទនៃក្រមសីលធម៌ AI នៅ តំណភ្ជាប់នៅទីនេះ.

នៅចំនុចប្រសព្វនៃការពិភាក្សានេះ ខ្ញុំចង់ភ្នាល់ថា អ្នកពិតជាចង់បានឧទាហរណ៍ក្នុងពិភពពិតមួយចំនួន ដែលអាចបង្ហាញពីបញ្ហានៃការជំនួស (ឬមិន) ភាពលំអៀងរបស់មនុស្សជាមួយនឹងភាពលំអៀងដែលមិនមានមូលដ្ឋានលើ AI ។

ខ្ញុំរីករាយដែលអ្នកបានសួរ។

មានគំរូដ៏ពេញនិយមពិសេស និងប្រាកដប្រជាដែលនៅជិតបេះដូងខ្ញុំ។ អ្នកឃើញហើយ ក្នុងសមត្ថភាពរបស់ខ្ញុំក្នុងនាមជាអ្នកជំនាញលើ AI រួមទាំងផលប៉ះពាល់ខាងសីលធម៌ និងផ្នែកច្បាប់ ខ្ញុំត្រូវបានគេសួរជាញឹកញាប់ឱ្យកំណត់ឧទាហរណ៍ជាក់ស្តែងដែលបង្ហាញពីភាពលំបាកនៃក្រមសីលធម៌ AI ដូច្នេះ លក្ខណៈទ្រឹស្តីខ្លះនៃប្រធានបទអាចយល់បានកាន់តែងាយស្រួល។ ផ្នែកមួយដែលរំជើបរំជួលបំផុតដែលបង្ហាញឱ្យឃើញច្បាស់អំពីក្រមសីលធម៌ AI នេះគឺការមកដល់នៃរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដដែលមានមូលដ្ឋានលើ AI ។ វានឹងបម្រើជាករណីប្រើប្រាស់ងាយស្រួល ឬជាឧទាហរណ៍សម្រាប់ការពិភាក្សាយ៉ាងទូលំទូលាយលើប្រធានបទ។

ខាងក្រោមនេះជាសំណួរដែលគួរអោយចាប់អារម្មណ៍ដែលគួរពិចារណា៖ តើការមកដល់នៃរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដដែលមានមូលដ្ឋានលើ AI បំភ្លឺអ្វីអំពីភាពលំអៀងនៅក្នុង AI ហើយប្រសិនបើដូច្នេះ តើនេះបង្ហាញអ្វីខ្លះ?

ទុកពេលឱ្យខ្ញុំមួយភ្លែតដើម្បីស្រាយសំណួរ។

ជាដំបូង សូមចំណាំថា មិនមានអ្នកបើកបរមនុស្សពាក់ព័ន្ធនឹងរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដនោះទេ។ សូមចងចាំថារថយន្តដែលបើកបរដោយខ្លួនឯងពិតប្រាកដគឺត្រូវបានជំរុញតាមរយៈប្រព័ន្ធបើកបរ AI ។ មិន​ចាំបាច់​មាន​អ្នក​បើក​បរ​មនុស្ស​នៅ​កង់​នោះ​ទេ ហើយ​ក៏​មិន​មាន​ការ​ផ្តល់​ឲ្យ​មនុស្ស​ដើម្បី​បើក​រថយន្ត​ដែរ។ សម្រាប់ការគ្របដណ្តប់យ៉ាងទូលំទូលាយ និងបន្តរបស់ខ្ញុំនៃយានយន្តស្វយ័ត (AVs) និងជាពិសេសរថយន្តដែលបើកបរដោយខ្លួនឯង សូមមើល តំណភ្ជាប់នៅទីនេះ.

ខ្ញុំចង់បញ្ជាក់បន្ថែមទៀតថាតើវាមានន័យយ៉ាងម៉េចនៅពេលខ្ញុំនិយាយអំពីឡានបើកបរដោយខ្លួនឯង។

ស្វែងយល់ពីកម្រិតនៃរថយន្តបើកបរដោយខ្លួនឯង

ក្នុងនាមជាការបញ្ជាក់មួយរថយន្តបើកបរដោយខ្លួនឯងគឺជាប្រភេទមួយដែលអាយអេសបើកបររថយន្តដោយខ្លួនឯងហើយមិនមានជំនួយពីមនុស្សទេក្នុងពេលបើកបរ។

យានជំនិះគ្មានអ្នកបើកបរទាំងនេះត្រូវបានចាត់ទុកថាជាកម្រិតទី 4 និងកម្រិត 5 (សូមមើលការពន្យល់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ) ខណៈពេលដែលរថយន្តដែលតម្រូវឱ្យអ្នកបើកបរមនុស្សរួមគ្នាចែករំលែកការប្រឹងប្រែងបើកបរជាធម្មតាត្រូវបានចាត់ទុកថានៅកម្រិត 2 ឬកម្រិត 3 ។ រថយន្តដែលរួមគ្នាចែករំលែកភារកិច្ចបើកបរត្រូវបានពិពណ៌នាថាជាពាក់កណ្តាលស្វយ័ត ហើយជាធម្មតាមានភាពខុសគ្នានៃ កម្មវិធីបន្ថែមដោយស្វ័យប្រវត្តិដែលត្រូវបានគេហៅថា ADAS (Advanced Driver-Assistance Systems)។

នៅមិនទាន់មានរថយន្តបើកបរដោយខ្លួនឯងនៅកម្រិត ៥ នៅឡើយទេដែលយើងមិនទាន់ដឹងថាតើវានឹងអាចសម្រេចបានឬអត់ហើយតើវាត្រូវចំណាយពេលប៉ុន្មានដើម្បីទៅដល់ទីនោះ។

ទន្ទឹមនឹងនេះ កិច្ចខិតខំប្រឹងប្រែងកម្រិតទី 4 កំពុងព្យាយាមបន្តិចម្តងៗ ដើម្បីទទួលបានការអូសទាញមួយចំនួន ដោយឆ្លងកាត់ការសាកល្បងផ្លូវសាធារណៈតូចចង្អៀត និងជ្រើសរើស ទោះបីជាមានភាពចម្រូងចម្រាសលើថាតើការធ្វើតេស្តនេះគួរតែត្រូវបានអនុញ្ញាតក្នុងម្នាក់ៗក៏ដោយ (យើងទាំងអស់គ្នាគឺជាជ្រូកហ្គីណេដែលមានជីវិត ឬស្លាប់នៅក្នុងការពិសោធន៍មួយ។ កើតឡើងនៅលើផ្លូវហាយវេ និងផ្លូវរបស់យើង អ្នកខ្លះឈ្លោះគ្នា សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ).

ដោយសាររថយន្តពាក់កណ្តាលស្វ័យភាពតម្រូវឱ្យមានអ្នកបើកបរជាមនុស្សការអនុម័តប្រភេទរថយន្តទាំងនោះនឹងមិនខុសពីការបើកបរយានយន្តធម្មតាទេដូច្នេះមិនមានអ្វីថ្មីទេសម្រាប់និយាយអំពីប្រធានបទនេះ (ទោះបីជាអ្នកនឹងឃើញក៏ដោយ) ក្នុងពេលតែមួយចំនុចដែលបានធ្វើជាទូទៅអាចអនុវត្តបាន) ។

ចំពោះរថយន្តពាក់កណ្តាលស្វយ័តវាជាការសំខាន់ដែលសាធារណជនត្រូវដឹងជាមុនអំពីទិដ្ឋភាពគួរឱ្យព្រួយបារម្ភដែលកំពុងកើតឡើងនាពេលថ្មីៗនេះពោលគឺទោះបីអ្នកបើកបរមនុស្សទាំងនោះនៅតែបន្តបង្ហោះវីដេអូខ្លួនពួកគេដេកលង់លក់ក្នុងកង់រថយន្តកម្រិត ២ ឬលេខ ៣ ក៏ដោយ។ យើងទាំងអស់គ្នាត្រូវចៀសវាងកុំអោយវង្វេងស្មារតីជឿថាអ្នកបើកបរអាចយកការចាប់អារម្មណ៍របស់ពួកគេចេញពីភារកិច្ចបើកបរនៅពេលបើកបររថយន្តពាក់កណ្តាលស្វយ័ត។

អ្នកគឺជាអ្នកទទួលខុសត្រូវចំពោះសកម្មភាពបើកបររបស់យានយន្តដោយមិនគិតពីចំនួនស្វ័យប្រវត្តិកម្មដែលអាចត្រូវបានបោះចូលទៅក្នុងកម្រិត ២ ឬកម្រិត ៣ ។

រថយន្តបើកបរដោយខ្លួនឯង និង AI ជាមួយនឹងភាពលំអៀងមិនឆ្គង

សម្រាប់យានយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដកម្រិតទី ៤ និងទី ៥ នឹងមិនមានអ្នកបើកបរជាមនុស្សចូលរួមក្នុងការងារបើកបរឡើយ។

អ្នកកាន់កាប់ទាំងអស់នឹងក្លាយជាអ្នកដំណើរ។

អេអាយអេកំពុងធ្វើការបើកបរ។

ទិដ្ឋភាពមួយដែលត្រូវពិភាក្សាភ្លាមៗទាក់ទងនឹងការពិតដែលថាអេ។ អាយ។ អិ។ ពាក់ព័ន្ធនឹងប្រព័ន្ធបើកបរ AI សព្វថ្ងៃមិនងាយស្រួលទេ។ និយាយម៉្យាងទៀតអេអាយគឺទាំងអស់គ្នាជាកម្មវិធីរួមបញ្ចូលគ្នានៃកម្មវិធីនិងក្បួនដោះស្រាយដែលផ្អែកលើកុំព្យូទ័រហើយភាគច្រើនប្រាកដជាមិនអាចវែកញែកតាមរបៀបដែលមនុស្សអាចធ្វើបានឡើយ។

ហេតុអ្វីបានជាការសង្កត់ធ្ងន់បន្ថែមអំពីអេអាយមិនមានអារម្មណ៍?

ដោយសារតែខ្ញុំចង់គូសបញ្ជាក់ថានៅពេលពិភាក្សាអំពីតួនាទីរបស់ប្រព័ន្ធបើកបរ AI ខ្ញុំមិនបានបង្ហាញពីគុណសម្បត្តិរបស់មនុស្សទៅនឹង AI ទេ។ សូមមេត្តាជ្រាបថាមានទំនោរដែលកំពុងបន្តនិងមានគ្រោះថ្នាក់នាពេលបច្ចុប្បន្ននេះចំពោះមនុស្សវិទូ។ បើនិយាយអោយចំទៅមនុស្សកំពុងតែផ្តល់នូវមនោសញ្ចេតនាស្រដៀងនឹងមនុស្សទៅនឹងអេអាយអេសព្វថ្ងៃនេះទោះបីជាការពិតដែលមិនអាចប្រកែកបាននិងមិនអាចកាត់ថ្លៃបានថាពុំមាន AI បែបនេះនៅឡើយទេ។

ជាមួយនឹងការបំភ្លឺនោះអ្នកអាចស្មានថាប្រព័ន្ធបើកបរ AI នឹងមិនមាន“ ដឹង” ពីលក្ខណៈនៃការបើកបរ។ ការបើកបរនិងអ្វីទាំងអស់ដែលវាតម្រូវឱ្យមានកម្មវិធីជាផ្នែកមួយនៃផ្នែករឹងនិងផ្នែកទន់នៃឡានបើកបរដោយខ្លួនឯង។

សូមមុជចូលទៅក្នុងទិដ្ឋភាពជាច្រើនដែលបានមកលេងលើប្រធានបទនេះ។

ជាដំបូង វាជារឿងសំខាន់ដែលត្រូវដឹងថា មិនមែនរថយន្តដែលបើកបរដោយខ្លួនឯង AI ទាំងអស់សុទ្ធតែដូចគ្នានោះទេ។ ក្រុមហ៊ុនផលិតរថយន្តនីមួយៗ និងក្រុមហ៊ុនបច្ចេកវិទ្យាបើកបរដោយខ្លួនឯងកំពុងប្រើប្រាស់វិធីសាស្រ្តរបស់ខ្លួនក្នុងការរៀបចំរថយន្តដែលបើកបរដោយស្វ័យប្រវត្តិ។ ដូចនេះ វាពិបាកក្នុងការធ្វើសេចក្តីថ្លែងការណ៍ដ៏ទូលំទូលាយអំពីអ្វីដែលប្រព័ន្ធបើកបរ AI នឹងធ្វើឬមិនធ្វើ។

លើសពីនេះទៅទៀតនៅពេលណាដែលបញ្ជាក់ថាប្រព័ន្ធបើកបរអេអាយមិនធ្វើអ្វីជាក់លាក់ណាមួយនោះនៅពេលក្រោយនេះអាចត្រូវបានអ្នកអភិវឌ្developersន៍យកឈ្នះដែលតាមពិតកម្មវិធីកុំព្យូទ័រអាចធ្វើបាន។ មួយជំហានម្តង ៗ ប្រព័ន្ធបើកបរអេអាយអាយកំពុងត្រូវបានកែលម្អនិងពង្រីកបន្តិចម្តង ៗ ។ ការដាក់កំហិតដែលមានស្រាប់នៅថ្ងៃនេះប្រហែលជាលែងមាននៅក្នុងការបង្កើតឡើងវិញឬកំណែប្រព័ន្ធនាពេលអនាគត។

ខ្ញុំជឿជាក់ថាផ្តល់នូវការព្រមានតិចតួចគ្រប់គ្រាន់ដើម្បីបញ្ជាក់ពីអ្វីដែលខ្ញុំចង់ទាក់ទង។

ឥឡូវនេះ យើងត្រូវបានគេកំណត់ឱ្យធ្វើ ការជ្រមុជទឹកជ្រៅទៅក្នុងរថយន្តដែលបើកបរដោយខ្លួនឯង និងលទ្ធភាព AI ប្រកបដោយក្រមសីលធម៌ ដែលរួមបញ្ចូលការរុករក AI និងភាពលំអៀងដែលមិនឆ្ពោះទៅរក។

ចូរយើងប្រើឧទាហរណ៍ដែលងាយយល់។ រថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI កំពុងដំណើរការនៅលើផ្លូវសង្កាត់របស់អ្នក ហើយហាក់ដូចជាកំពុងបើកបរដោយសុវត្ថិភាព។ ដំបូង​ឡើយ អ្នក​បាន​យកចិត្តទុកដាក់​ជាពិសេស​រាល់​ពេលដែល​អ្នក​អាច​មើល​ឃើញ​រថយន្ត​បើកបរ​ដោយ​ខ្លួនឯង។ យានជំនិះស្វយ័តនេះបានលេចធ្លោជាមួយនឹងឧបករណ៍ចាប់សញ្ញាអេឡិចត្រូនិចដែលរួមមានកាមេរ៉ាវីដេអូ គ្រឿងរ៉ាដា ឧបករណ៍ LIDAR និងអ្វីៗផ្សេងទៀត។ បន្ទាប់ពីជាច្រើនសប្តាហ៍នៃរថយន្តបើកបរដោយខ្លួនឯងបានធ្វើដំណើរជុំវិញសហគមន៍របស់អ្នក ឥឡូវនេះអ្នកស្ទើរតែមិនកត់សំគាល់វាទេ។ តាម​ដែល​អ្នក​បារម្ភ វា​គ្រាន់​តែ​ជា​ឡាន​មួយ​ទៀត​នៅ​លើ​ផ្លូវ​សាធារណៈ​ដែល​មមាញឹក​រួច​ទៅ​ហើយ។

ក្រែង​អ្នក​គិត​ថា​វា​មិន​អាច​ទៅ​រួច ឬ​មិន​អាច​យល់​បាន​ក្នុង​ការ​ស៊ាំ​នឹង​ការ​ឃើញ​រថយន្ត​ដែល​បើក​បរ​ដោយ​ខ្លួន​ឯង ខ្ញុំ​បាន​សរសេរ​ជា​ញឹក​ញាប់​អំពី​របៀប​ដែល​អ្នក​ស្រុក​ដែល​ស្ថិត​ក្នុង​វិសាលភាព​នៃ​ការ​សាកល្បង​រថយន្ត​បើកបរ​ដោយ​ខ្លួន​ឯង​បាន​ស៊ាំ​ជា​បណ្តើរៗ​ដើម្បី​ឃើញ​រថយន្ត​ដែល​មាន​ការ​រីក​ចម្រើន។ មើលការវិភាគរបស់ខ្ញុំនៅ តំណនេះនៅទីនេះ. អ្នកស្រុកជាច្រើននាក់នៅទីបំផុតបានផ្លាស់ប្តូរពីមាត់ស្រែកថ្ងូរ មកឥឡូវនេះបញ្ចេញនូវភាពអផ្សុកយ៉ាងទូលំទូលាយ ដើម្បីបានឃើញរថយន្តដែលបើកបរដោយខ្លួនឯងទាំងនោះ។

ប្រហែលជាមូលហេតុចំបងនៅពេលនេះ ដែលពួកគេអាចសម្គាល់ឃើញយានជំនិះស្វយ័តគឺដោយសារតែកត្តាឆាប់ខឹង និងការហួសចិត្ត។ ប្រព័ន្ធ​បើកបរ AI ដែល​ធ្វើ​ឡើង​ដោយ​សៀវភៅ​ធ្វើ​ឱ្យ​ប្រាកដ​ថា​រថយន្ត​គោរព​តាម​ការ​កំណត់​ល្បឿន និង​ច្បាប់​ផ្លូវ​ទាំងអស់។ សម្រាប់អ្នកបើកបរដ៏មមាញឹកនៅក្នុងរថយន្តបើកបរដោយមនុស្សតាមបែបប្រពៃណីរបស់ពួកគេ អ្នកនឹងមានការធុញទ្រាន់នៅពេលដែលបានជាប់គាំងនៅពីក្រោយរថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI ដែលគោរពច្បាប់យ៉ាងតឹងរ៉ឹង។

នោះជាអ្វីមួយដែលយើងទាំងអស់គ្នាប្រហែលជាត្រូវទម្លាប់ធ្វើ ត្រឹមត្រូវ ឬខុស។

ត្រលប់ទៅរឿងនិទានរបស់យើង។

បង្ហាញ​ថា​ក្តី​បារម្ភ​មិន​ទំនង​ពីរ​ចាប់​ផ្តើម​កើត​ឡើង​អំពី​រថយន្ត​ដែល​បើក​ដោយ​ខ្លួន​ឯង​ដែល​មាន​មូលដ្ឋាន​លើ AI ដែល​ទទួល​បាន​ការ​ស្វាគមន៍​ជា​ទូទៅ៖

ក. កន្លែងដែល AI កំពុងជិះរថយន្តដែលបើកបរដោយខ្លួនឯងសម្រាប់ការជិះបានក្លាយទៅជាកង្វល់ដ៏គួរឱ្យព្រួយបារម្ភនៅក្នុងសហគមន៍ទាំងមូល។

ខ. របៀបដែល AI កំពុងព្យាបាលអ្នកថ្មើរជើងដែលកំពុងរង់ចាំដែលមិនមានផ្លូវត្រូវក៏ជាបញ្ហាដែលកំពុងកើនឡើងផងដែរ

ដំបូងឡើយ AI កំពុងតែជិះរថយន្តដែលបើកបរដោយខ្លួនឯងពេញទីក្រុងទាំងមូល។ អ្នក​ណា​ដែល​ចង់​ស្នើ​សុំ​ជិះ​រថយន្ត​ដែល​បើក​ដោយ​ខ្លួន​ឯង​នោះ ពិត​ជា​មាន​ឱកាស​ស្មើ​គ្នា​ក្នុង​ការ​ហៅ​រថយន្ត​មួយ​នេះ។ បន្តិចម្ដងៗ AI បានចាប់ផ្តើមរក្សារថយន្តដែលបើកបរដោយខ្លួនឯងជាចម្បងនៅក្នុងផ្នែកមួយនៃទីក្រុង។ ផ្នែកនេះគឺជាអ្នកបង្កើតលុយកាន់តែច្រើន ហើយប្រព័ន្ធ AI ត្រូវបានកម្មវិធីដើម្បីព្យាយាម និងបង្កើនប្រាក់ចំណូលជាផ្នែកនៃការប្រើប្រាស់នៅក្នុងសហគមន៍។

សមាជិកសហគមន៍នៅក្នុងផ្នែកក្រីក្រនៃទីក្រុងទំនងជាមិនសូវមានលទ្ធភាពជិះរថយន្តដែលបើកបរដោយខ្លួនឯងនោះទេ។ នេះគឺដោយសារតែរថយន្តដែលបើកបរដោយខ្លួនឯងបាននៅឆ្ងាយជាង និងកំពុងធ្វើដំណើរក្នុងផ្នែកដែលមានប្រាក់ចំណូលខ្ពស់ជាងក្នុងតំបន់។ នៅពេលដែលសំណើមួយចូលមកពីផ្នែកឆ្ងាយនៃទីក្រុង សំណើណាមួយពីទីតាំងជិតដែលទំនងជានៅក្នុងផ្នែក "គួរឱ្យគោរព" នៃទីក្រុងនឹងទទួលបានអាទិភាពខ្ពស់ជាងនេះ។ នៅទីបំផុត លទ្ធភាពទទួលបានរថយន្តបើកបរដោយខ្លួនឯងនៅកន្លែងណាមួយក្រៅពីផ្នែកដ៏សម្បូរបែបនៃទីក្រុងគឺស្ទើរតែមិនអាចទៅរួចទេ ដែលគួរឱ្យហួសចិត្ត ដូច្នេះសម្រាប់អ្នកដែលរស់នៅក្នុងតំបន់ដែលខ្វះខាតធនធានឥឡូវនេះ។

អ្នក​អាច​អះអាង​ថា AI បាន​ធ្លាក់​ចុះ​មក​លើ​ទម្រង់​នៃ​ការ​រើសអើង​ប្រូកស៊ី (ក៏​ត្រូវ​បាន​គេ​ហៅ​ជា​ញឹកញាប់​ថា​ជា​ការ​រើសអើង​ដោយ​ប្រយោល)។ AI មិន​ត្រូវ​បាន​រៀបចំ​ឡើង​ដើម្បី​ជៀស​វាង​សង្កាត់​ក្រីក្រ​ទាំង​នោះ។ ផ្ទុយទៅវិញ វា "បានរៀន" ដើម្បីធ្វើដូច្នេះតាមរយៈការប្រើប្រាស់ ML/DL ។

រឿងនេះគឺថាអ្នកបើកបរមនុស្សជិះកង់ត្រូវបានគេស្គាល់ថាធ្វើដូចគ្នា ទោះបីជាមិនចាំបាច់ទាំងស្រុងដោយសារតែមុំរកលុយក៏ដោយ។ មាន​អ្នក​បើក​បរ​ដែល​មាន​មនុស្ស​ជិះ​មួយ​ចំនួន​ដែល​មាន​ការ​លម្អៀង​មិន​សមរម្យ​អំពី​ការ​រើស​អ្នក​ជិះ​នៅ​ផ្នែក​ខ្លះ​នៃ​ទីក្រុង។ នេះ​ជា​បាតុភូត​ដែល​គេ​ដឹង​ខ្លះៗ ហើយ​ទីក្រុង​បាន​ដាក់​ចេញ​នូវ​វិធីសាស្ត្រ​ត្រួតពិនិត្យ​ដើម្បី​ចាប់​អ្នកបើកបរ​មនុស្ស​ដែល​ធ្វើ​សកម្មភាព​នេះ។ អ្នកបើកបរមនុស្សអាចជួបបញ្ហាក្នុងការអនុវត្តការជ្រើសរើសដែលមិនពេញចិត្ត

វាត្រូវបានគេសន្មត់ថា AI នឹងមិនធ្លាក់ចូលទៅក្នុងខ្សាច់រហ័សដូចគ្នានោះទេ។ មិនមានការត្រួតពិនិត្យឯកទេសណាមួយត្រូវបានបង្កើតឡើងដើម្បីតាមដានកន្លែងដែលរថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI នឹងទៅនោះទេ។ លុះ​ក្រោយ​ពី​សមាជិក​សហគមន៍​ចាប់​ផ្ដើម​ត្អូញត្អែរ ទើប​ថ្នាក់​ដឹក​នាំ​ក្រុង​ដឹង​ថា​មាន​អ្វី​កើត​ឡើង។ សម្រាប់ព័ត៌មានបន្ថែមអំពីប្រភេទនៃបញ្ហាទូទាំងទីក្រុងទាំងនេះដែលយានយន្តស្វយ័ត និងរថយន្តបើកបរដោយខ្លួនឯងនឹងបង្ហាញ សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ ហើយដែលពិពណ៌នាអំពីការសិក្សាដែលដឹកនាំដោយសាកលវិទ្យាល័យ Harvard ដែលខ្ញុំបានសហការនិពន្ធលើប្រធានបទនេះ។

ឧទាហរណ៍នៃទិដ្ឋភាពរ៉ូមីងនៃរថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI បង្ហាញពីការចង្អុលបង្ហាញមុននេះថាអាចមានស្ថានភាពដែលនាំឱ្យមនុស្សមានភាពលំអៀងដែលការគ្រប់គ្រងត្រូវបានដាក់ឱ្យដំណើរការ ហើយថា AI ជំនួសអ្នកបើកបរមនុស្សទាំងនោះត្រូវបានទុកចោល។ ឥតគិតថ្លៃ។ ជាអកុសល AI អាចនឹងកើនឡើងបន្តិចម្តងៗនៅក្នុងភាពលំអៀងស្រដៀងគ្នា ហើយធ្វើដូច្នេះដោយគ្មានផ្លូវការពារគ្រប់គ្រាន់។

ឧទាហរណ៍ទីពីរពាក់ព័ន្ធនឹង AI ដែលកំណត់ថាតើត្រូវឈប់សម្រាប់ការរង់ចាំអ្នកថ្មើរជើងដែលមិនមានសិទ្ធិឆ្លងកាត់ផ្លូវនោះទេ។

អ្នកពិតជាបានបើកបរ ហើយបានជួបប្រទះនឹងអ្នកថ្មើរជើងដែលកំពុងរង់ចាំឆ្លងផ្លូវ ហើយពួកគេមិនទាន់មានសិទ្ធិធ្វើផ្លូវនោះទេ។ នេះ​មាន​ន័យ​ថា​អ្នក​មាន​ឆន្ទានុសិទ្ធិ​ក្នុង​ការ​ថា​តើ​ត្រូវ​ឈប់​ហើយ​អនុញ្ញាត​ឱ្យ​ពួកគេ​ឆ្លង​កាត់។ អ្នក​អាច​បន្ត​ដោយ​មិន​អនុញ្ញាត​ឱ្យ​ពួក​គេ​ឆ្លង​កាត់ ហើយ​នៅ​តែ​ស្ថិត​ក្នុង​ច្បាប់​បើកបរ​ផ្លូវ​ច្បាប់​ពេញលេញ​នៃ​ការ​ធ្វើ​ដូច្នេះ។

ការសិក្សាអំពីរបៀបដែលអ្នកបើកបរមនុស្សសម្រេចចិត្តឈប់ ឬមិនឈប់សម្រាប់អ្នកថ្មើរជើងបែបនេះ បានបង្ហាញថា ពេលខ្លះអ្នកបើកបរមនុស្សធ្វើការជ្រើសរើសដោយផ្អែកលើភាពលំអៀងដែលមិនសមហេតុផល។ អ្នកបើកបរមនុស្សអាចសម្លឹងមើលអ្នកថ្មើរជើង ហើយជ្រើសរើសមិនឈប់ ទោះបីជាពួកគេនឹងឈប់ក៏ដោយ ប្រសិនបើអ្នកថ្មើរជើងមានរូបរាងខុសគ្នា ដូចជាផ្អែកលើពូជសាសន៍ ឬភេទ។ ខ្ញុំបានពិនិត្យរឿងនេះនៅ តំណភ្ជាប់នៅទីនេះ.

ស្រមៃថារថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI ត្រូវបានកម្មវិធីដើម្បីដោះស្រាយជាមួយនឹងសំណួរថាតើត្រូវឈប់ឬមិនឈប់សម្រាប់អ្នកថ្មើរជើងដែលមិនមានផ្លូវត្រូវ។ នេះជារបៀបដែលអ្នកអភិវឌ្ឍន៍ AI សម្រេចចិត្តរៀបចំកិច្ចការនេះ។ ពួកគេបានប្រមូលទិន្នន័យពីម៉ាស៊ីនថតវីដេអូរបស់ទីក្រុង ដែលត្រូវបានដាក់នៅជុំវិញទីក្រុង។ ទិន្នន័យបង្ហាញពីអ្នកបើកបររបស់មនុស្សដែលឈប់សម្រាប់អ្នកថ្មើរជើងដែលមិនមានផ្លូវត្រូវ និងអ្នកបើកបរមនុស្សដែលមិនឈប់។ វាត្រូវបានប្រមូលទាំងអស់ទៅក្នុងសំណុំទិន្នន័យដ៏ធំមួយ។

ដោយប្រើ Machine Learning និង Deep Learning ទិន្នន័យត្រូវបានយកគំរូតាមការគណនា។ ប្រព័ន្ធបើកបរ AI បន្ទាប់មកប្រើម៉ូដែលនេះដើម្បីសម្រេចថាពេលណាត្រូវឈប់ ឬមិនឈប់។ ជាទូទៅ គំនិតនេះគឺថា អ្វីក៏ដោយដែលទំនៀមទំលាប់ក្នុងស្រុកមាន នោះជារបៀបដែល AI នឹងដឹកនាំរថយន្តដែលបើកបរដោយខ្លួនឯងបាន។

សម្រាប់ភាពភ្ញាក់ផ្អើលនៃអ្នកដឹកនាំទីក្រុង និងអ្នកស្រុក AI ជាក់ស្តែងបានជ្រើសរើសឈប់ ឬមិនឈប់ ដោយផ្អែកលើរូបរាងរបស់អ្នកថ្មើរជើង រួមទាំងពូជសាសន៍ និងភេទរបស់ពួកគេ។ ឧបករណ៍ចាប់សញ្ញានៃរថយន្តដែលបើកបរដោយខ្លួនឯងនឹងស្កេនអ្នកថ្មើរជើងដែលកំពុងរង់ចាំ បញ្ចូលទិន្នន័យនេះទៅក្នុងគំរូ ML/DL ហើយម៉ូដែលនឹងបញ្ចេញទៅ AI ថាតើត្រូវឈប់ ឬបន្ត។ គួរឲ្យសោកស្ដាយ ទីក្រុងនេះមានការលំអៀងអ្នកបើកបរមនុស្សច្រើនរួចទៅហើយ ហើយ AI ឥឡូវនេះកំពុងធ្វើត្រាប់តាមដូចគ្នា។

ដំណឹង​ល្អ​នោះ​គឺ​ថា វា​បាន​លើក​ឡើង​នូវ​បញ្ហា​មួយ​ដែល​ស្ទើរតែ​គ្មាន​នរណា​ម្នាក់​ធ្លាប់​ដឹង​ថា​មាន​ពី​មុន​មក។ ដំណឹង​អាក្រក់​នោះ​គឺ​ចាប់​តាំង​ពី AI ត្រូវ​បាន​ចាប់​បាន​ធ្វើ​បែប​នេះ វា​ទទួល​បាន​ការ​ស្តី​បន្ទោស​ភាគ​ច្រើន​។ ឧទាហរណ៍នេះបង្ហាញថាប្រព័ន្ធ AI ប្រហែលជាគ្រាន់តែចម្លងពីភាពលំអៀងដែលមានស្រាប់របស់មនុស្សប៉ុណ្ណោះ។

សន្និដ្ឋាន

មានវិធីជាច្រើនដើម្បីព្យាយាម និងជៀសវាងការបង្កើត AI ដែលនៅខាងក្រៅច្រកទ្វារមានភាពលំអៀង ឬមានភាពលំអៀងតាមពេលវេលា។ វិធីសាស្រ្តមួយពាក់ព័ន្ធនឹងការធានាថាអ្នកអភិវឌ្ឍន៍ AI ដឹងពីការកើតឡើងនេះ ហើយដូច្នេះរក្សាពួកគេនៅលើម្រាមជើងរបស់ពួកគេដើម្បីរៀបចំកម្មវិធី AI ដើម្បីជៀសវាងបញ្ហានេះ។ ផ្លូវមួយទៀតមាន AI ត្រួតពិនិត្យខ្លួនឯងសម្រាប់អាកប្បកិរិយាគ្មានសីលធម៌ (សូមមើលការពិភាក្សារបស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ) និង/ឬមានបំណែក AI ផ្សេងទៀតដែលត្រួតពិនិត្យប្រព័ន្ធ AI ផ្សេងទៀតសម្រាប់អាកប្បកិរិយាគ្មានសីលធម៌ (ខ្ញុំបានគ្របដណ្តប់វានៅ តំណភ្ជាប់នៅទីនេះ).

ដើម្បីសង្ខេប យើងត្រូវដឹងថា មនុស្សអាចមានភាពលំអៀង ហើយថាពួកគេត្រូវដឹងពីដែនកំណត់របស់ពួកគេ។ ដូចគ្នាដែរ AI អាចមានភាពលំអៀង ហើយយើងត្រូវដឹងពីដែនកំណត់របស់វា។

សម្រាប់​អ្នក​ដែល​ចូលចិត្ត​ប្រកាន់​យក​ក្រមសីលធម៌ AI ខ្ញុំ​សូម​បញ្ចប់​នៅ​ពេល​នេះ​ជាមួយ​នឹង​ខ្សែ​ភាព​ល្បីល្បាញ​មួយ​ទៀត​ដែល​អ្នក​រាល់​គ្នា​ត្រូវ​តែ​ដឹង​រួច​ហើយ។ មានន័យថា សូមបន្តប្រើប្រាស់ និងចែករំលែកពីសារៈសំខាន់នៃ Ethical AI។ ហើយ​ដោយ​ការ​ធ្វើ​ដូច្នេះ ខ្ញុំ​នឹង​និយាយ​ដោយ​ថ្នមៗ​ថា៖ «ទៅ​មុខ​ធ្វើ​ថ្ងៃ​របស់​ខ្ញុំ»។

ប្រភព៖ https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especially-deployed-when-human-biases-are-aplenty/