ក្រមសីលធម៌ AI និងច្បាប់ AI កំពុងឆ្ពោះទៅរកស្តង់ដារដែលកំណត់អត្តសញ្ញាណយ៉ាងច្បាស់ និងគ្រប់គ្រងភាពលំអៀងរបស់ AI

តើ​អ្នក​ធ្លាប់​លេង​បៀរ​ហាសិប​ពីរ​ទេ?

វាមិនមែនជាល្បែងដែលជាធម្មតាអ្នកធ្វើដោយស្ម័គ្រចិត្តនោះទេ។ នេះជាមូលហេតុ។ មាននរណាម្នាក់ផ្តល់ឱ្យអ្នកថាវាគឺជាកីឡាដ៏រីករាយមួយ ហើយប្រសិនបើអ្នកយកនុយដ៏ផ្អែមនោះ ពួកគេនឹងបោះសន្លឹកបៀទាំងមូលទៅលើអាកាស ហើយសង្ខេបទៅលើឥដ្ឋ។ បន្ទាប់មក បុគ្គលនោះផ្តល់ស្នាមញញឹមដ៏ក្រៀមក្រំ និងប្រាប់អ្នកឱ្យទៅយកសន្លឹកបៀ។ នោះជាហ្គេមទាំងមូល។

លេងសើច!

ខ្ញុំ​មាន​សំណួរ​គួរ​ពិចារណា​មួយ​ដើម្បី​សួរ​អ្នក​អំពី​រឿង​នេះ។

ឧបមាថាសន្លឹកបៀមួយសន្លឹកបានរអិលនៅក្រោមសាឡុងក្បែរនោះ។ នៅពេលអ្នករើសសន្លឹកបៀទាំងអស់ចប់ អ្នកនឹងដឹងថាមួយបានបាត់ ព្រោះវានឹងមានត្រឹមតែហាសិបមួយនៅក្នុងដៃរបស់អ្នកប៉ុណ្ណោះ។

សំណួរ​សួរថា តើ​អ្នក​អាច​កំណត់​ថា​បាត់​កាត​មួយ​ណា​ទេ?

ខ្ញុំ​ប្រាកដ​ថា​អ្នក​នឹង​និយាយ​ភ្លាម​ថា​អ្នក​អាច​ដឹង​យ៉ាង​ងាយ​ស្រួល​ថា​កាត​មួយ​ណា​មិន​នៅ​ក្នុង​ដៃ។ អ្វី​ដែល​អ្នក​ត្រូវ​ធ្វើ​គឺ​ដាក់​តុ​ឱ្យ​មាន​សណ្តាប់ធ្នាប់។ អ្នកដឹងទេថា បន្ទះស្ដង់ដារមានបួនឈុត ហើយក្នុងឈុតនីមួយៗ សន្លឹកបៀត្រូវបានរាប់ពីមួយទៅដប់ ហើយបន្ទាប់មកចូលទៅក្នុង Jack, Queen និង King។

អ្នក​ដឹង​រឿង​នេះ​ព្រោះ​ការ​លេង​បៀ​ស្តង់ដារ​គឺ​ផ្អែក​លើ​ស្តង់ដារ។

អូ សេចក្តីថ្លែងការណ៍នោះអាចហាក់ដូចជាការអះអាងជាក់ស្តែងមួយក្នុងចំណោមការអះអាងជាក់ស្តែង។ បាទ/ចាស៎ ជា​ការ​ពិត ការ​លេង​ស្ដង់ដារ​គឺ​ផ្អែក​លើ​ស្ដង់ដារ។ យើងទាំងអស់គ្នាដឹងរឿងនោះ។ ចំណុចរបស់ខ្ញុំគឺថា តាមរយៈការមានស្ដង់ដារ យើងអាចពឹងផ្អែកលើស្តង់ដារនៅពេលចាំបាច់។ ក្រៅ​ពី​អាច​កាត់​បន្ថយ​ថា​តើ​កាត​ណា​ដែល​បាត់​ចេញ​ពី​បន្ទះ​មួយ អ្នក​ក៏​អាច​លេង​ហ្គេម​កាត​ល្បី​រាប់​លាន​ជាមួយ​មនុស្ស​ផ្សេង​ទៀត​បាន​យ៉ាង​ងាយ​ស្រួល។ នៅពេលដែលនរណាម្នាក់ត្រូវបានប្រាប់ពីច្បាប់នៃហ្គេម ពួកគេអាចលេងដោយផ្ទាល់បាន ពីព្រោះពួកគេដឹងច្បាស់រួចហើយថា ហ្គេមនេះមានអ្វីខ្លះ។ អ្នកមិនចាំបាច់ពន្យល់ពួកគេថា Deck មានបួនឈុត និងសន្លឹកបៀដែលមានលេខខុសៗគ្នា។ ពួក​គេ​ដឹង​រួច​ទៅ​ហើយ​ថា​ជា​រឿង​នោះ។

តើខ្ញុំទៅណាជាមួយនេះ?

ខ្ញុំកំពុងព្យាយាមនាំអ្នកទៅកាន់ផ្លូវមួយ ដែលជាមធ្យោបាយដ៏សំខាន់ក្នុងការធ្វើឱ្យមានការរីកចម្រើនក្នុងវិស័យ AI និងជាពិសេសអាណាចក្រនៃ AI Ethics និង Ethical AI ។ អ្នកឃើញហើយ យើងត្រូវព្យាយាមបង្កើតឱ្យមានការរីករាលដាល និងយល់ព្រមទាំងអស់លើស្តង់ដារអំពីក្រមសីលធម៌ AI ។ ប្រសិនបើយើងអាចធ្វើដូច្នេះបាន វានឹងបង្កើនភាពងាយស្រួលនៃការទទួលយក Ethical AI និងបង្ហាញឱ្យឃើញនូវគោលបំណងធ្វើឱ្យប្រសើរឡើងនូវប្រព័ន្ធ AI ដែលរក្សាការបោះចោលទៅក្នុងទីផ្សារ (ដូចជាសន្លឹកបៀដែលមិនរាប់លេខ និងមិនមានលំដាប់)។ សម្រាប់ការគ្របដណ្តប់បន្ត និងទូលំទូលាយរបស់ខ្ញុំអំពីក្រមសីលធម៌ AI ក្រមសីលធម៌ AI និងច្បាប់ AI សូមមើល តំណភ្ជាប់នៅទីនេះ និង តំណភ្ជាប់នៅទីនេះ, គ្រាន់តែឈ្មោះមួយចំនួន។

ផ្នែកជាក់លាក់មួយ ឬផ្នែកនៃក្រមសីលធម៌ AI ដែលកំពុងទទួលបានការចាប់អារម្មណ៍ពីប្រព័ន្ធផ្សព្វផ្សាយជាច្រើនរួមមាន AI ដែលបង្ហាញពីភាពលំអៀង និងភាពមិនស្មើគ្នា។ អ្នកប្រហែលជាដឹងហើយថា នៅពេលដែលយុគសម័យចុងក្រោយនៃ AI បានចាប់ផ្តើម មានការសាទរយ៉ាងខ្លាំងចំពោះអ្វីដែលមនុស្សមួយចំនួនហៅថា អាយអេសដើម្បីភាពល្អ. ជាអកុសល យើងចាប់ផ្តើមធ្វើសាក្សីដោយភាពរំភើបរីករាយ អាយអេសសម្រាប់អាក្រក់. ជាឧទាហរណ៍ ប្រព័ន្ធសម្គាល់មុខដែលមានមូលដ្ឋានលើ AI ជាច្រើនត្រូវបានបង្ហាញថាមានផ្ទុកនូវភាពលំអៀងជាតិសាសន៍ និងលម្អៀងយេនឌ័រ ដែលខ្ញុំបានពិភាក្សានៅ តំណភ្ជាប់នៅទីនេះ.

ខំប្រឹងទប់ទល់ អាយអេសសម្រាប់អាក្រក់ កំពុងដំណើរការយ៉ាងសកម្ម។ ក្រៅពីស្រែកថ្ងូរ ផ្នែកច្បាប់ ការខិតខំប្រឹងប្រែងក្នុងការទប់ទល់នឹងការប្រព្រឹត្តខុស វាក៏មានការជំរុញយ៉ាងសំខាន់ឆ្ពោះទៅរកការទទួលយកក្រមសីលធម៌ AI ដើម្បីកែតម្រូវភាពអាក្រក់របស់ AI ។ គំនិតនេះគឺថាយើងគួរតែទទួលយក និងគាំទ្រគោលការណ៍សីលធម៌ AI សំខាន់ៗសម្រាប់ការអភិវឌ្ឍន៍ និងការអនុវត្តរបស់ AI ដើម្បីធ្វើដូច្នេះដើម្បីកាត់បន្ថយ។ អាយអេសសម្រាប់អាក្រក់ ហើយក្នុងពេលដំណាលគ្នាផ្សព្វផ្សាយ និងផ្សព្វផ្សាយការពេញចិត្ត អាយអេសដើម្បីភាពល្អ.

តាមគំនិតដែលពាក់ព័ន្ធ ខ្ញុំជាអ្នកតស៊ូមតិក្នុងការព្យាយាមប្រើ AI ជាផ្នែកនៃដំណោះស្រាយចំពោះបញ្ហា AI ដោយប្រយុទ្ធនឹងភ្លើងក្នុងរបៀបនៃការគិតនោះ។ ជាឧទាហរណ៍ យើងអាចបញ្ចូលសមាសធាតុ Ethical AI ទៅក្នុងប្រព័ន្ធ AI ដែលនឹងត្រួតពិនិត្យពីរបៀបដែល AI ដែលនៅសល់កំពុងធ្វើ ហើយដូច្នេះវាអាចចាប់យកការខិតខំប្រឹងប្រែងរើសអើងណាមួយក្នុងពេលជាក់ស្តែង សូមមើលការពិភាក្សារបស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ. យើងក៏អាចមានប្រព័ន្ធ AI ដាច់ដោយឡែកដែលដើរតួជាប្រភេទនៃម៉ូនីទ័រ AI Ethics ។ ប្រព័ន្ធ AI ដើរតួជាអ្នកត្រួតពិនិត្យដើម្បីតាមដាន និងរកឃើញនៅពេលដែល AI មួយផ្សេងទៀតកំពុងចូលទៅក្នុងទីជ្រៅបំផុតដែលគ្មានសីលធម៌ (សូមមើលការវិភាគរបស់ខ្ញុំអំពីសមត្ថភាពបែបនេះនៅ តំណភ្ជាប់នៅទីនេះ).

បន្តិចទៀតនេះ ខ្ញុំនឹងចែករំលែកជាមួយអ្នកនូវគោលការណ៍ទូទៅមួយចំនួនដែលស្ថិតនៅក្រោមក្រមសីលធម៌ AI ។ មានបញ្ជីប្រភេទទាំងនេះជាច្រើនអណ្តែតនៅជុំវិញទីនេះ និងទីនោះ។ អ្នកអាចនិយាយបានថា មិនទាន់មានបញ្ជីឯកវចនៈនៃការអំពាវនាវជាសកល និងការស្របគ្នានៅឡើយ។ នោះ​ជា​ដំណឹង​អកុសល។ ដំណឹងល្អនោះគឺថា យ៉ាងហោចណាស់មានបញ្ជីសីលធម៌ AI ដែលអាចរកបានរួចរាល់ ហើយពួកគេមានទំនោរស្រដៀងគ្នា។ ទាំងអស់បានប្រាប់ នេះបង្ហាញថាតាមរយៈទម្រង់នៃការបញ្ចូលគ្នាប្រកបដោយហេតុផលនៃប្រភេទដែលយើងកំពុងស្វែងរកវិធីរបស់យើងឆ្ពោះទៅរកភាពសាមញ្ញទូទៅនៃអ្វីដែល AI Ethics មាន។

ខ្ញុំលើកយកចំណុចនេះឡើង ដើម្បីផ្តល់ជាមូលដ្ឋានគ្រឹះសម្រាប់ការពិភាក្សារបស់ខ្ញុំនៅទីនេះ ដែលនឹងផ្តោតលើផ្នែកជាក់លាក់មួយ ឬផ្នែកនៃអាណាចក្រដ៏ទូលំទូលាយនៃក្រមសីលធម៌ AI ពោលគឺដូចដែលបានរៀបរាប់ពីមុនធាតុជាក់លាក់នៃលំអៀង AI ។ ហេតុផលដែលខ្ញុំចែករំលែកប្រធានបទនេះជាមួយអ្នកគឺដោយសារឯកសារដែលចេញផ្សាយដោយវិទ្យាស្ថានស្តង់ដារ និងបច្ចេកវិទ្យាជាតិ (NIST) កំពុងព្យាយាមធ្វើឱ្យយើងឆ្ពោះទៅរកស្តង់ដារ AI ដែលមានលក្ខណៈលំអៀង។ ឯកសារមានសិទ្ធិ ឆ្ពោះទៅរកស្តង់ដារសម្រាប់កំណត់អត្តសញ្ញាណ និងគ្រប់គ្រងភាពលំអៀងនៅក្នុងបញ្ញាសិប្បនិម្មិត ដោយអ្នកនិពន្ធ Reva Schwartz, Apostol Vassilev, Kristen Greene, Lori Perine, Andrew Burt, និង Patrick Hall ហើយត្រូវបានបោះពុម្ពដោយក្រសួងពាណិជ្ជកម្មសហរដ្ឋអាមេរិក NIST Special Publication 1270 ក្នុងខែមីនា ឆ្នាំ 2022។

យើង​នឹង​ស្រាយ​កញ្ចប់​កិច្ច​ខិត​ខំ​ប្រឹង​ប្រែង​ដែល​មាន​ប្រយោជន៍ និង​លើក​ទឹក​ចិត្ត​ឆ្ពោះ​ទៅ​រក​ការ​បង្កើត​នូវ​អ្វី​ដែល​យើង​ចង់​បាន​ដោយ​ការ​លម្អៀង AI។ ពាក្យចាស់ពោលថា អ្នកមិនអាចគ្រប់គ្រងអ្វីដែលមិនអាចវាស់វែងបានទេ។ ដោយ​មាន​ស្ដង់ដារ​ដែល​ដាក់​ចេញ​នូវ​ភាព​លម្អៀង​របស់ AI អ្នក​អាច​ចាប់​ផ្ដើម​វាស់​វែង និង​គ្រប់​គ្រង​ភាព​លំអៀង AI។

ជាដំបូង សូមនិយាយដោយសង្ខេបនូវសិក្ខាបទនៃក្រមសីលធម៌ AI រួមមួយចំនួន ដើម្បីបង្ហាញពីអ្វីដែលគួរតែជាការពិចារណាដ៏សំខាន់សម្រាប់នរណាម្នាក់ដែលបង្កើត បង្កើត ឬប្រើប្រាស់ AI ។

ជាឧទាហរណ៍ ដូចមានចែងដោយបុរីវ៉ាទីកង់ ទីក្រុងរ៉ូមអំពាវនាវឱ្យមានក្រមសីលធម៌ AI ហើយដូចដែលខ្ញុំបានគ្របដណ្តប់ស៊ីជម្រៅ តំណភ្ជាប់នៅទីនេះទាំងនេះគឺជាគោលការណ៍សីលធម៌ AI ចម្បងចំនួនប្រាំមួយដែលបានកំណត់របស់ពួកគេ៖

  • តម្លាភាព: ជាគោលការណ៍ ប្រព័ន្ធ AI ត្រូវតែអាចពន្យល់បាន។
  • បញ្ចូល៖ តម្រូវការរបស់មនុស្សគ្រប់រូបត្រូវតែយកមកពិចារណា ដើម្បីឲ្យមនុស្សគ្រប់រូបទទួលបានអត្ថប្រយោជន៍ ហើយបុគ្គលទាំងអស់អាចទទួលបានលក្ខខណ្ឌល្អបំផុតដើម្បីបង្ហាញពីខ្លួនឯង និងអភិវឌ្ឍ។
  • ទំនួលខុសត្រូវ: អ្នកដែលរចនា និងដាក់ពង្រាយការប្រើប្រាស់ AI ត្រូវតែដំណើរការដោយការទទួលខុសត្រូវ និងតម្លាភាព
  • មិនលំអៀង៖ កុំបង្កើត ឬធ្វើសកម្មភាពដោយលំអៀង ការពារភាពត្រឹមត្រូវ និងសេចក្តីថ្លៃថ្នូររបស់មនុស្ស
  • ភាពជឿជាក់៖ ប្រព័ន្ធ AI ត្រូវតែអាចដំណើរការដោយភាពជឿជាក់
  • សុវត្ថិភាព និងឯកជនភាព៖ ប្រព័ន្ធ AI ត្រូវតែដំណើរការដោយសុវត្ថិភាព និងគោរពភាពឯកជនរបស់អ្នកប្រើប្រាស់។

ដូចដែលបានបញ្ជាក់ដោយក្រសួងការពារជាតិសហរដ្ឋអាមេរិក (DoD) នៅក្នុងរបស់ពួកគេ។ គោលការណ៍សីលធម៌សម្រាប់ការប្រើប្រាស់បញ្ញាសិប្បនិម្មិត ហើយដូចដែលខ្ញុំបានគ្របដណ្តប់ស៊ីជម្រៅ តំណភ្ជាប់នៅទីនេះនេះគឺជាគោលការណ៍សីលធម៌ AI ចម្បងចំនួនប្រាំមួយរបស់ពួកគេ៖

  • ទទួលខុសត្រូវ: បុគ្គលិក DoD នឹងអនុវត្តកម្រិតនៃការវិនិច្ឆ័យ និងការថែទាំសមស្រប ខណៈពេលដែលនៅតែទទួលខុសត្រូវចំពោះការអភិវឌ្ឍន៍ ការដាក់ពង្រាយ និងការប្រើប្រាស់សមត្ថភាព AI ។
  • សមភាព៖ នាយកដ្ឋាននឹងចាត់វិធានការដោយចេតនា ដើម្បីកាត់បន្ថយភាពលំអៀងដោយអចេតនានៅក្នុងសមត្ថភាព AI ។
  • អាចតាមដានបាន៖ សមត្ថភាព AI របស់នាយកដ្ឋាននឹងត្រូវបានបង្កើតឡើង និងដាក់ឱ្យប្រើប្រាស់ ដែលបុគ្គលិកពាក់ព័ន្ធមានការយល់ដឹងសមស្របអំពីបច្ចេកវិទ្យា ដំណើរការអភិវឌ្ឍន៍ និងវិធីសាស្រ្តប្រតិបត្តិការដែលអនុវត្តចំពោះសមត្ថភាព AI រួមទាំងវិធីសាស្រ្តដែលមានតម្លាភាព និងសវនកម្ម ប្រភពទិន្នន័យ និងនីតិវិធីរចនា និងឯកសារ។
  • អាចជឿទុកចិត្តបាន: សមត្ថភាព AI របស់នាយកដ្ឋាននឹងមានការប្រើប្រាស់ច្បាស់លាស់ និងច្បាស់លាស់ ហើយសុវត្ថិភាព សុវត្ថិភាព និងប្រសិទ្ធភាពនៃសមត្ថភាពទាំងនោះនឹងត្រូវឆ្លងកាត់ការធ្វើតេស្ត និងការធានានៅក្នុងការប្រើប្រាស់ដែលបានកំណត់នៅទូទាំងវដ្តជីវិតរបស់ពួកគេ។
  • អាចគ្រប់គ្រងបាន៖ នាយកដ្ឋាននឹងរចនា និងវិស្វកម្មសមត្ថភាព AI ដើម្បីបំពេញមុខងារដែលបានគ្រោងទុក ខណៈពេលដែលមានសមត្ថភាពក្នុងការរកឃើញ និងជៀសវាងផលវិបាកដែលមិនចង់បាន និងសមត្ថភាពក្នុងការផ្តាច់ ឬបិទប្រព័ន្ធដែលបានដាក់ពង្រាយ ដែលបង្ហាញពីអាកប្បកិរិយាអចេតនា។

ខ្ញុំក៏បានពិភាក្សាផងដែរអំពីការវិភាគសមូហភាពផ្សេងៗនៃគោលការណ៍សីលធម៌ AI រួមទាំងការគ្របដណ្តប់លើសំណុំដែលបង្កើតឡើងដោយអ្នកស្រាវជ្រាវដែលបានពិនិត្យ និងបង្រួមខ្លឹមសារនៃគោលការណ៍សីលធម៌ AI ជាតិ និងអន្តរជាតិជាច្រើននៅក្នុងក្រដាសដែលមានចំណងជើងថា "ទេសភាពសកលនៃគោលការណ៍ណែនាំសីលធម៌ AI" (បោះពុម្ពផ្សាយ ក្នុង ធម្មជាតិ) ហើយការគ្របដណ្តប់របស់ខ្ញុំរុករកនៅ តំណភ្ជាប់នៅទីនេះដែលនាំទៅដល់បញ្ជីគន្លឹះនេះ៖

  • តម្លាភាព
  • យុត្តិធម៌ និងយុត្តិធម៌
  • ភាពមិនអាក្រក់
  • ការទទួលខុសត្រូវ
  • ភាពឯកជន
  • អត្ថប្រយោជន៍
  • សេរីភាព និងស្វ័យភាព
  • ការជឿទុកចិត្ត
  • និរន្តរភាព
  • សេចក្តីថ្លៃថ្នូរ
  • សាមគ្គីភាព

ដូចដែលអ្នកអាចទាយដោយផ្ទាល់ ការព្យាយាមកំណត់ចំណុចជាក់លាក់នៃគោលការណ៍ទាំងនេះអាចជារឿងពិបាកធ្វើណាស់។ កាន់តែពិសេសជាងនេះទៅទៀត ការខិតខំប្រឹងប្រែងដើម្បីបង្វែរគោលការណ៍ដ៏ទូលំទូលាយទាំងនោះទៅជាអ្វីដែលជាក់ស្តែង និងលម្អិតគ្រប់គ្រាន់ដើម្បីប្រើប្រាស់នៅពេលបង្កើតប្រព័ន្ធ AI ក៏ជាចំណុចពិបាកមួយក្នុងការបំបែក។ វាជាការងាយស្រួលក្នុងការធ្វើការគ្រវីដៃខ្លះៗអំពីអ្វីដែល AI Ethics សិក្ខាបទគឺ និងរបៀបដែលពួកគេគួរត្រូវបានសង្កេតជាទូទៅ ខណៈពេលដែលវាជាស្ថានភាពស្មុគស្មាញជាងនៅក្នុង AI coding ដែលត្រូវតែជាកៅស៊ូពិតប្រាកដដែលជួបនឹងផ្លូវ។

គោលការណ៍ក្រមសីលធម៌ AI នឹងត្រូវប្រើប្រាស់ដោយអ្នកអភិវឌ្ឍន៍ AI រួមជាមួយនឹងអ្នកដែលគ្រប់គ្រងកិច្ចខិតខំប្រឹងប្រែងក្នុងការអភិវឌ្ឍន៍ AI និងសូម្បីតែអ្នកដែលនៅទីបំផុតអនុវត្ត និងថែទាំប្រព័ន្ធ AI ។ ភាគីពាក់ព័ន្ធទាំងអស់នៅទូទាំងវដ្តជីវិត AI នៃការអភិវឌ្ឍន៍ និងការប្រើប្រាស់ត្រូវបានពិចារណាក្នុងវិសាលភាពនៃការគោរពតាមបទដ្ឋានដែលត្រូវបានបង្កើតឡើងនៃ Ethical AI ។ នេះគឺជាការគូសបញ្ជាក់ដ៏សំខាន់មួយចាប់តាំងពីការសន្មត់ធម្មតាគឺថា "មានតែអ្នកសរសេរកូដ" ឬអ្នកដែលកម្មវិធី AI ប៉ុណ្ណោះដែលត្រូវប្រកាន់ខ្ជាប់នូវគោលគំនិតសីលធម៌របស់ AI ។ ដូចដែលបានបញ្ជាក់រួចមកហើយ វាត្រូវការភូមិមួយដើម្បីបង្កើត និងអនុវត្ត AI ហើយភូមិទាំងមូលត្រូវតែគោរព និងគោរពតាមសិក្ខាបទ AI ។

មូលដ្ឋាននៃសិក្ខាបទក្រមសីលធម៌ AI សំខាន់ៗទាំងនោះ គឺជាធម្មជាតិដ៏អាក្រក់នៃ AI លំអៀង។

ដូចគ្នានឹងសន្លឹកបៀដែរ វាប្រាកដជាល្អប្រសិនបើយើងអាចដាក់បញ្ចូលគ្នានូវភាពលំអៀងរបស់ AI ចូលទៅក្នុងសំណុំនៃ "ឈុត" ឬប្រភេទ។ ជាការពិត ឯកសារ NIST ផ្តល់នូវការដាក់ជាក្រុមដែលបានស្នើ។

ប្រភេទធំៗចំនួនបីកំពុងត្រូវបានស្នើឡើង៖

1) ភាពលំអៀងជាប្រព័ន្ធ

2) ភាពលំអៀងផ្នែកស្ថិតិនិងការគណនា

៣) ភាពលំអៀងរបស់មនុស្ស

ថាតើភាពលំអៀងរបស់ AI ទាំងអស់សមយ៉ាងត្រឹមត្រូវនៅក្នុងប្រភេទមួយក្នុងចំណោមប្រភេទទាំងបីនោះ គឺពិតជាអ្វីដែលត្រូវយកមកពិចារណា។ អ្នក​ប្រាកដ​ជា​អាច​ប្រកែក​បាន​ថា​ភាពលំអៀង AI ខ្លះ​ធ្លាក់​ទៅ​ក្នុង​ប្រភេទ​មួយ ពីរ ឬ​ទាំង​បី​ក្នុង​ពេល​តែ​មួយ។ លើស​ពី​នេះ​ទៅ​ទៀត អ្នក​អាច​នឹង​អះអាង​ថា​ប្រភេទ​ច្រើន​ទៀត​សម​នឹង​ត្រូវ​លើក​ឡើង​ដូច​ជា​ក្រុម​ទី​បួន ទី​ប្រាំ ទី​ប្រាំមួយ ឬ​ច្រើន​ទៀត​នៃ​ក្រុម។

ខ្ញុំសង្ឃឹមថានោះជាអ្វីដែលអ្នកកំពុងគិត ពីព្រោះយើងត្រូវការឱ្យអ្នកគ្រប់គ្នាចូលរួមក្នុងការជួយរៀបចំស្តង់ដារទាំងនេះ។ ប្រសិនបើអ្នកត្រូវបានបំផុសគំនិតជាមួយនឹងវិធីដែលស្ដង់ដារទាំងនេះត្រូវបានបង្កើតឡើងជាលើកដំបូង ខ្ញុំសូមជំរុញឱ្យអ្នកបង្វែរថាមពលនោះ ទៅជាការជួយដល់ពួកយើងក្នុងការធ្វើឱ្យស្ដង់ដារទាំងនេះរឹងមាំ និងពេញលេញតាមដែលពួកគេអាចឆ្លាក់បាន។

សម្រាប់ពេលនេះ យើងអាចពិនិត្យមើលកាន់តែដិតដល់នូវប្រភេទចំនួនបីដែលបានស្នើឡើង ហើយមើលថាតើដៃប្រភេទណាដែលយើងត្រូវបានដោះស្រាយរហូតមកដល់ពេលនេះ (បាទ ខ្ញុំនឹងបន្តប្រើការប្រៀបធៀបទៅនឹងសន្លឹកបៀដែលធ្វើដូច្នេះ។ ពេញមួយផ្នែកនៃអត្ថបទដែលបានសរសេរនេះ អ្នកអាចភ្នាល់ប្រាក់ដុល្លារខាងក្រោមរបស់អ្នកលើ សន្លឹកអាត់ដែលមិនលាក់កំបាំងនៃប្រធានបទនេះ)។

តើការសំដៅទៅលើភាពលំអៀងប្រព័ន្ធមានន័យដូចម្តេច?

នេះជាអ្វីដែលឯកសារ NIST និយាយថា៖ “ភាពលំអៀងជាប្រព័ន្ធកើតឡើងពីនីតិវិធី និងការអនុវត្តរបស់ស្ថាប័នជាក់លាក់ ដែលប្រតិបត្តិការក្នុងវិធីដែលនាំឱ្យក្រុមសង្គមមួយចំនួនទទួលបានអត្ថប្រយោជន៍ ឬពេញចិត្ត ហើយអ្នកផ្សេងទៀតត្រូវរងការមិនពេញចិត្ត ឬទម្លាក់តម្លៃ។ នេះមិនចាំបាច់ជាលទ្ធផលនៃការរើសអើងឬការរើសអើងដោយមនសិការណាមួយនោះទេ ប៉ុន្តែជាជាងភាគច្រើនដែលអនុវត្តតាមច្បាប់ ឬបទដ្ឋានដែលមានស្រាប់។ ការរើសអើងជាតិសាសន៍តាមស្ថាប័ន និងការរួមភេទគឺជាឧទាហរណ៍ទូទៅបំផុត” (ចំណាំថានេះគ្រាន់តែជាការដកស្រង់ខ្លីប៉ុណ្ណោះ ហើយអ្នកអានត្រូវបានលើកទឹកចិត្តឱ្យឃើញការពន្យល់ពេញលេញ)។

AI ចូល​មក​ក្នុង​ការ​លាយឡំ​នៃ​ភាពលំអៀង​ជា​ប្រព័ន្ធ ដោយ​ផ្តល់​មធ្យោបាយ​បញ្ជូន និង​អនុវត្ត​ភាពលំអៀង​ទាំងនោះ​ក្នុង​កម្មវិធី​ដែល​មាន​មូលដ្ឋាន​លើ AI។ នៅពេលណាដែលអ្នកប្រើកម្មវិធីដែលបញ្ចូល AI សម្រាប់អ្វីដែលអ្នកដឹង វាអាចមានការលំអៀងមួយចំនួនដែលត្រូវបានបញ្ចូលទៅក្នុងប្រព័ន្ធរួចហើយតាមរយៈក្រុមហ៊ុន និងការអនុវត្តឧស្សាហកម្មដែលនាំទៅដល់ការបង្កើត AI ។ យោងតាមការសិក្សារបស់ NIST៖ "ភាពលំអៀងទាំងនេះមាននៅក្នុងសំណុំទិន្នន័យដែលប្រើក្នុង AI និងបទដ្ឋានស្ថាប័ន ការអនុវត្ត និងដំណើរការឆ្លងកាត់វដ្តជីវិតរបស់ AI និងនៅក្នុងវប្បធម៌ និងសង្គមកាន់តែទូលំទូលាយ។"

បន្ទាប់មក ពិចារណាលើសំណុំនៃភាពលំអៀងដែលត្រូវបានដាក់ស្លាកថាជា ភាពលំអៀងផ្នែកស្ថិតិ និងការគណនា។

ឯកសារ NIST ចែងអំពីរឿងនេះ៖ “ភាពលំអៀងផ្នែកស្ថិតិ និងការគណនាកើតចេញពីកំហុសដែលកើតឡើងនៅពេលដែលគំរូមិនមែនជាតំណាងនៃចំនួនប្រជាជន។ ភាពលំអៀងទាំងនេះកើតឡើងពីប្រព័ន្ធដែលផ្ទុយពីកំហុសចៃដន្យ ហើយអាចកើតឡើងក្នុងករណីដែលគ្មានការរើសអើង ភាពលំអៀង ឬចេតនារើសអើង។ នៅក្នុងប្រព័ន្ធ AI ភាពលំអៀងទាំងនេះមានវត្តមាននៅក្នុងសំណុំទិន្នន័យ និងដំណើរការក្បួនដោះស្រាយដែលប្រើក្នុងការអភិវឌ្ឍន៍កម្មវិធី AI ហើយជារឿយៗកើតឡើងនៅពេលដែលក្បួនដោះស្រាយត្រូវបានបណ្តុះបណ្តាលលើប្រភេទទិន្នន័យមួយ ហើយមិនអាចបន្ថែមលើសពីទិន្នន័យទាំងនោះបានទេ។

ប្រភេទនៃភាពលំអៀងផ្នែកស្ថិតិ និងការគណនានេះជារឿយៗត្រូវបានចម្អិនទៅក្នុងប្រព័ន្ធ AI ដែលប្រើ Machine Learning (ML) និង Deep Learning (DL)។ ការលើកឡើងនូវបញ្ហាដ៏ធំធេងនៃ ML/DL សហសម័យ ទាមទារឱ្យមានទំនាក់ទំនងផ្នែកពាក់ព័ន្ធអំពីអ្វីដែល AI គឺ និងអ្វីដែល ML/DL ជាអ្វី។

សូមប្រាកដថាយើងនៅលើទំព័រដូចគ្នាអំពីធម្មជាតិនៃ AI នាពេលបច្ចុប្បន្ននេះ។

មិនមាន AI ណាមួយដែលប្រកបដោយមនោសញ្ចេតនាទេ។ យើងមិនមាននេះទេ។ យើង​មិន​ដឹង​ថា​តើ​ AI ​អាច​នឹង​កើត​ឡើង​ឬ​អត់​នោះ​ទេ។ គ្មាននរណាម្នាក់អាចទស្សន៍ទាយបានច្បាស់ថា តើយើងនឹងសម្រេចបាន AI អារម្មណ៍ ឬថាតើ AI អារម្មណ៍នឹងកើតឡើងដោយអព្ភូតហេតុដោយឯកឯងក្នុងទម្រង់នៃ supernova នៃការយល់ដឹងតាមការគណនា (ជាទូទៅគេហៅថាឯកវចនៈ សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ).

ប្រភេទនៃ AI ដែលខ្ញុំកំពុងផ្តោតលើមាន AI ដែលមិនមានអារម្មណ៍ដែលយើងមានសព្វថ្ងៃនេះ។ ប្រសិនបើយើងចង់ស្មានទុកជាមុន អ្នកផ្ញើ AI ការពិភាក្សានេះអាចទៅក្នុងទិសដៅខុសគ្នាយ៉ាងខ្លាំង។ AI ដែល​មាន​អារម្មណ៍​ថា​នឹង​មាន​គុណភាព​មនុស្ស។ អ្នកនឹងត្រូវពិចារណាថា AI អារម្មណ៍គឺស្មើនឹងការយល់ដឹងរបស់មនុស្ស។ ជាងនេះទៅទៀត ចាប់តាំងពីមានការប៉ាន់ស្មានខ្លះថា យើងប្រហែលជាមាន AI ដ៏វៃឆ្លាតទំនើប ដូច្នេះហើយទើបអាចសន្និដ្ឋានបានថា AI បែបនេះអាចមានភាពវៃឆ្លាតជាងមនុស្សទៅទៀត (សម្រាប់ការរុករករបស់ខ្ញុំនូវ AI ឆ្លាតវៃទំនើបជាលទ្ធភាព សូមមើល ការគ្របដណ្តប់នៅទីនេះ).

ចូរយើងរក្សាអ្វីៗឱ្យកាន់តែជ្រៅនៅលើផែនដី ហើយពិចារណាអំពី AI ដែលមិនងាយយល់នាពេលបច្ចុប្បន្ននេះ។

ត្រូវដឹងថា AI នាពេលបច្ចុប្បន្ននេះ មិនអាច "គិត" តាមរបៀបណាមួយបានដូចការគិតរបស់មនុស្សនោះទេ។ នៅពេលអ្នកធ្វើអន្តរកម្មជាមួយ Alexa ឬ Siri សមត្ថភាពសន្ទនាអាចហាក់ដូចជាស្រដៀងនឹងសមត្ថភាពរបស់មនុស្ស ប៉ុន្តែការពិតគឺថាវាមានលក្ខណៈគណនា និងខ្វះការយល់ដឹងរបស់មនុស្ស។ យុគសម័យចុងក្រោយបង្អស់របស់ AI បានប្រើប្រាស់យ៉ាងទូលំទូលាយនូវ Machine Learning និង Deep Learning ដែលមានឥទ្ធិពលលើការផ្គូផ្គងលំនាំគណនា។ នេះបាននាំឱ្យមានប្រព័ន្ធ AI ដែលមានរូបរាងដូចមនុស្ស។ ទន្ទឹមនឹងនេះដែរ សព្វថ្ងៃនេះមិនមាន AI ណាមួយដែលមានលក្ខណៈសមហេតុសមផលទេ ហើយក៏មិនមានការងឿងឆ្ងល់នៃការយល់ដឹងនៃការគិតរបស់មនុស្សរឹងមាំដែរ។

ML/DL គឺជាទម្រង់នៃការផ្គូផ្គងលំនាំគណនា។ វិធីសាស្រ្តធម្មតាគឺអ្នកប្រមូលផ្តុំទិន្នន័យអំពីកិច្ចការធ្វើការសម្រេចចិត្ត។ អ្នកបញ្ចូលទិន្នន័យទៅក្នុងម៉ូដែលកុំព្យូទ័រ ML/DL ។ គំរូទាំងនោះស្វែងរកលំនាំគណិតវិទ្យា។ បន្ទាប់ពីស្វែងរកគំរូបែបនេះ ប្រសិនបើរកឃើញនោះ ប្រព័ន្ធ AI នឹងប្រើលំនាំទាំងនោះនៅពេលជួបទិន្នន័យថ្មី។ នៅពេលបង្ហាញទិន្នន័យថ្មី គំរូដែលផ្អែកលើ "ទិន្នន័យចាស់" ឬទិន្នន័យប្រវត្តិសាស្រ្តត្រូវបានអនុវត្តដើម្បីបង្ហាញការសម្រេចចិត្តបច្ចុប្បន្ន។

ខ្ញុំ​គិត​ថា​អ្នក​អាច​ទាយ​ថា​តើ​នេះ​កំពុង​ទៅ​ណា​។ ប្រសិនបើ​មនុស្ស​ដែល​បាន​បង្កើត​គំរូ​តាម​ការ​សម្រេច​ចិត្ត​បាន​រួម​បញ្ចូល​ការ​លំអៀង​ដែល​មិន​ឆ្អែតឆ្អន់ នោះ​ការ​ខុសឆ្គង​គឺ​ថា​ទិន្នន័យ​បាន​ឆ្លុះ​បញ្ចាំង​ពី​ចំណុច​នេះ​តាម​វិធី​ស្រាលៗ ប៉ុន្តែ​សំខាន់។ ការ​ផ្គូផ្គង​គំរូ​ការ​សិក្សា​តាម​ម៉ាស៊ីន ឬ​ការ​រៀន​ជ្រៅ​នឹង​ព្យាយាម​ធ្វើ​ត្រាប់តាម​ទិន្នន័យ​តាម​គណិតវិទ្យា។ មិន​មាន​ភាព​ដូច​គ្នា​នៃ​សុភវិនិច្ឆ័យ ឬ​ទិដ្ឋភាព​មនោសញ្ចេតនា​ផ្សេង​ទៀត​នៃ​ការ​បង្កើត​គំរូ​ដែល​បង្កើត​ដោយ AI ក្នុង​មួយ។

ជាងនេះទៅទៀត អ្នកអភិវឌ្ឍន៍ AI ប្រហែលជាមិនដឹងពីអ្វីដែលកំពុងកើតឡើងនោះទេ។ គណិតវិទ្យា arcane នៅក្នុង ML/DL អាចធ្វើឱ្យវាពិបាកក្នុងការបំបាត់ភាពលំអៀងដែលលាក់នៅពេលនេះ។ អ្នកនឹងសង្ឃឹមយ៉ាងត្រឹមត្រូវ ហើយរំពឹងថាអ្នកអភិវឌ្ឍន៍ AI នឹងសាកល្បងសម្រាប់ភាពលំអៀងដែលអាចកប់បាន ទោះបីជាវាពិបាកជាងវាក៏ដោយ។ ឱកាសដ៏រឹងមាំមួយមានដែលថា ទោះបីជាមានការធ្វើតេស្តយ៉ាងទូលំទូលាយថានឹងមានភាពលំអៀងនៅតែបង្កប់នៅក្នុងគំរូដែលត្រូវគ្នានឹងគំរូនៃ ML/DL ក៏ដោយ។

អ្នក​អាច​ប្រើ​សុភាសិត​ដ៏​ល្បី​ឬ​មិន​ល្អ​ខ្លះ​នៃ​ការ​ចោល​សំរាម​ក្នុង​ធុង​សំរាម។ រឿងនោះគឺថា នេះគឺស្រដៀងទៅនឹងភាពលំអៀងដែលបញ្ចូលទៅក្នុង insidiously ដូចជាភាពលំអៀងដែលលិចចូលទៅក្នុង AI ។ ក្បួនដោះស្រាយការសម្រេចចិត្ត (ADM) នៃ AI axiomatically ក្លាយជាបន្ទុកដោយភាពមិនស្មើគ្នា។

មិនល្អ។

នេះនាំយើងទៅចំណាត់ថ្នាក់ទីបីនៃក្រុម NIST នៃក្រុមបី ជាពិសេសតួនាទីនៃភាពលំអៀងរបស់មនុស្សក្នុងការកើតមាននៃភាពលំអៀង AI ។ នេះជាអ្វីដែលឯកសារ NIST បានបង្ហាញ៖ "ភាពលំអៀងរបស់មនុស្សឆ្លុះបញ្ចាំងពីកំហុសជាប្រព័ន្ធនៅក្នុងគំនិតរបស់មនុស្សដោយផ្អែកលើចំនួនកំណត់នៃគោលការណ៍ heuristic និងការព្យាករណ៍តម្លៃចំពោះប្រតិបត្តិការវិនិច្ឆ័យដ៏សាមញ្ញ។ ភាពលំអៀងទាំងនេះច្រើនតែជាប់ពាក់ព័ន្ធ និងមានទំនោរទាក់ទងទៅនឹងរបៀបដែលបុគ្គល ឬក្រុមយល់ឃើញព័ត៌មាន (ដូចជាលទ្ធផល AI ស្វ័យប្រវត្តិ) ដើម្បីធ្វើការសំរេចចិត្ត ឬបំពេញព័ត៌មានដែលបាត់ ឬមិនស្គាល់។ ភាពលំអៀងទាំងនេះមានវត្តមាននៅក្នុងស្ថាប័ន ក្រុម និងដំណើរការធ្វើការសម្រេចចិត្តជាបុគ្គលនៅទូទាំងវដ្តជីវិតរបស់ AI និងនៅក្នុងការប្រើប្រាស់កម្មវិធី AI ដែលត្រូវបានដាក់ឱ្យដំណើរការ។

ឥឡូវ​នេះ អ្នក​បាន​ទទួល​ការ​ណែនាំ​អំពី​ការ​ឆេះ​យ៉ាង​ឆាប់​រហ័ស​ដល់​បី​ប្រភេទ។

ខ្ញុំចង់ចែករំលែកជាមួយអ្នកនូវអាហារបន្ថែមមួយចំនួនសម្រាប់ការគិត ដូចដែលបានបង្ហាញនៅក្នុងឯកសារ NIST។ គំនូសតាងមួយនៅក្នុងការនិទានរឿងរបស់ពួកគេផ្តល់នូវសេចក្តីសង្ខេបដ៏មានប្រយោជន៍នៃសំណួរ និងការពិចារណាសំខាន់ៗ ដែលបង្កប់លើសំណុំនីមួយៗនៃ AI លំអៀងទាំងបី។ ខ្ញុំរាយបញ្ជីពួកវានៅទីនេះសម្រាប់ភាពងាយស្រួលនៃឯកសារយោង និងការកែលម្អរបស់អ្នក។

#1: ភាពលំអៀងជាប្រព័ន្ធ

  • អ្នកណាគេរាប់ ហើយអ្នកណាមិនរាប់?

- បញ្ហាជាមួយអថេរមិនទាន់ឃើញច្បាស់

- តំណាង​មិន​ដល់​នៃ​ក្រុម​ដែល​មាន​កម្រិត​ទាប

- ស្វ័យប្រវត្តិកម្មនៃវិសមភាព

- ការបង្ហាញតិចតួចក្នុងការកំណត់មុខងារឧបករណ៍ប្រើប្រាស់

- ដំណើរការដែលគាំទ្រភាគច្រើន / ភាគតិច

- ភាពលំអៀងនៃវប្បធម៌នៅក្នុងមុខងារគោលបំណង (ល្អបំផុតសម្រាប់បុគ្គល និងល្អបំផុតសម្រាប់ក្រុម)

  • តើ​យើង​ដឹង​ថា​អ្វី​ត្រូវ​ដោយ​របៀប​ណា?

- ការពង្រឹងវិសមភាព (ក្រុមត្រូវបានរងផលប៉ះពាល់កាន់តែច្រើនជាមួយនឹងការប្រើប្រាស់កម្រិតខ្ពស់នៃ AI)

- ប៉ូលីសទស្សន៍ទាយមានផលប៉ះពាល់អវិជ្ជមានច្រើនជាង

- ការទទួលយកយ៉ាងទូលំទូលាយនៃការចែករំលែកជិះ/រថយន្តបើកបរដោយខ្លួនឯង/ល។ អាចផ្លាស់ប្តូរគោលនយោបាយដែលប៉ះពាល់ដល់ចំនួនប្រជាជនដោយផ្អែកលើការប្រើប្រាស់

#២៖ ភាពលំអៀងផ្នែកស្ថិតិ និងការគណនា

  • អ្នកណាគេរាប់ ហើយអ្នកណាមិនរាប់?

- ការជ្រើសរើសគំរូ និងការលំអៀង

- ការប្រើប្រាស់អថេរប្រូកស៊ី ព្រោះវាងាយស្រួលវាស់វែង

- ភាពលំអៀងស្វ័យប្រវត្តិកម្ម

- មាត្រដ្ឋាន Likert (ពីប្រភេទទៅធម្មតាទៅខា)

- មិនលីនេអ៊ែរទល់នឹងលីនេអ៊ែរ

- ភាពច្របូកច្របល់អេកូឡូស៊ី

- បង្រួមអប្បបរមានៃបទដ្ឋាន L1 ធៀបនឹង L2

- ការលំបាកទូទៅក្នុងការកំណត់បរិមាណបាតុភូតបរិបទ

  • តើ​យើង​ដឹង​ថា​អ្វី​ត្រូវ​ដោយ​របៀប​ណា?

- កង្វះការបញ្ជាក់ឆ្លងដែនគ្រប់គ្រាន់

- ភាពលំអៀងនៃការរស់រានមានជីវិត

- ការលំបាកជាមួយភាពយុត្តិធម៌

#៣៖ ភាពលំអៀងរបស់មនុស្ស

  • អ្នកណាគេរាប់ ហើយអ្នកណាមិនរាប់?

- ភាពលំអៀងនៃការសង្កេត (ឥទ្ធិពលពន្លឺតាមផ្លូវ)

- ភាពលំអៀងដែលអាចរកបាន (យុថ្កា)

- កំហុស McNamara

- ការគិតជាក្រុមនាំទៅរកជម្រើសតូចចង្អៀត

- ឥទ្ធិពល Rashomon នាំឱ្យមានការតស៊ូមតិតាមប្រធានបទ

- ភាពលំបាកក្នុងការកំណត់បរិមាណអាចនាំទៅរកភាពខុសឆ្គងរបស់ McNamara

  • តើ​យើង​ដឹង​ថា​អ្វី​ត្រូវ​ដោយ​របៀប​ណា?

- ភាពលំអៀងនៃការបញ្ជាក់

- ភាពលំអៀងស្វ័យប្រវត្តិកម្ម

នៅចំនុចប្រសព្វនៃការពិភាក្សាដ៏មានទម្ងន់នេះ ខ្ញុំចង់ភ្នាល់ថា អ្នកពិតជាចង់បានឧទាហរណ៍មួយចំនួនដែលអាចបង្ហាញពីការលំអៀង AI បីប្រភេទ។ មានឧទាហរណ៍ដ៏ពិសេស និងពេញនិយមមួយ ដែលនៅជិតបេះដូងខ្ញុំ។ អ្នកឃើញហើយ ក្នុងសមត្ថភាពរបស់ខ្ញុំក្នុងនាមជាអ្នកជំនាញលើ AI រួមទាំងផលប៉ះពាល់ខាងសីលធម៌ និងផ្នែកច្បាប់ ខ្ញុំត្រូវបានគេសួរជាញឹកញាប់ឱ្យកំណត់ឧទាហរណ៍ជាក់ស្តែងដែលបង្ហាញពីភាពលំបាកនៃក្រមសីលធម៌ AI ដូច្នេះ លក្ខណៈទ្រឹស្តីខ្លះនៃប្រធានបទអាចយល់បានកាន់តែងាយស្រួល។ ផ្នែកមួយដែលរំជើបរំជួលបំផុតដែលបង្ហាញយ៉ាងច្បាស់អំពីក្រមសីលធម៌ AI នេះគឺការមកដល់នៃរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដដែលមានមូលដ្ឋានលើ AI ។ វានឹងបម្រើជាករណីប្រើប្រាស់ដ៏ងាយស្រួល ឬជាឧទាហរណ៍សម្រាប់ការពិភាក្សាយ៉ាងទូលំទូលាយលើប្រធានបទ។

ខាងក្រោមនេះជាសំណួរដែលគួរអោយចាប់អារម្មណ៍ដែលគួរពិចារណា៖ តើការមកដល់នៃរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដដែលមានមូលដ្ឋានលើ AI បំភ្លឺអ្វីអំពីប្រភេទ AI ទាំងបីដែលបានស្នើឡើង ហើយប្រសិនបើដូច្នេះ តើនេះបង្ហាញអ្វីខ្លះ?

ទុកពេលឱ្យខ្ញុំមួយភ្លែតដើម្បីស្រាយសំណួរ។

ជាដំបូង សូមចំណាំថា មិនមានអ្នកបើកបរមនុស្សពាក់ព័ន្ធនឹងរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដនោះទេ។ សូមចងចាំថារថយន្តដែលបើកបរដោយខ្លួនឯងពិតប្រាកដគឺត្រូវបានជំរុញតាមរយៈប្រព័ន្ធបើកបរ AI ។ មិន​ចាំបាច់​មាន​អ្នក​បើក​បរ​មនុស្ស​នៅ​កង់​នោះ​ទេ ហើយ​ក៏​មិន​មាន​ការ​ផ្តល់​ឲ្យ​មនុស្ស​ដើម្បី​បើក​រថយន្ត​ដែរ។ សម្រាប់ការគ្របដណ្តប់យ៉ាងទូលំទូលាយ និងបន្តរបស់ខ្ញុំនៃយានយន្តស្វយ័ត (AVs) និងជាពិសេសរថយន្តដែលបើកបរដោយខ្លួនឯង សូមមើល តំណភ្ជាប់នៅទីនេះ.

ខ្ញុំចង់បញ្ជាក់បន្ថែមទៀតថាតើវាមានន័យយ៉ាងម៉េចនៅពេលខ្ញុំនិយាយអំពីឡានបើកបរដោយខ្លួនឯង។

ស្វែងយល់ពីកម្រិតនៃរថយន្តបើកបរដោយខ្លួនឯង

ក្នុងនាមជាការបញ្ជាក់មួយរថយន្តបើកបរដោយខ្លួនឯងគឺជាប្រភេទមួយដែលអាយអេសបើកបររថយន្តដោយខ្លួនឯងហើយមិនមានជំនួយពីមនុស្សទេក្នុងពេលបើកបរ។

យានជំនិះគ្មានអ្នកបើកបរទាំងនេះត្រូវបានចាត់ទុកថាជាកម្រិតទី 4 និងកម្រិត 5 (សូមមើលការពន្យល់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ) ខណៈពេលដែលរថយន្តដែលតម្រូវឱ្យអ្នកបើកបរមនុស្សរួមគ្នាចែករំលែកការប្រឹងប្រែងបើកបរជាធម្មតាត្រូវបានចាត់ទុកថានៅកម្រិត 2 ឬកម្រិត 3 ។ រថយន្តដែលរួមគ្នាចែករំលែកភារកិច្ចបើកបរត្រូវបានពិពណ៌នាថាជាពាក់កណ្តាលស្វយ័ត ហើយជាធម្មតាមានភាពខុសគ្នានៃ កម្មវិធីបន្ថែមដោយស្វ័យប្រវត្តិដែលត្រូវបានគេហៅថា ADAS (Advanced Driver-Assistance Systems)។

មិនទាន់មានរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដនៅកម្រិតទី 5 នៅឡើយទេ ហើយយើងក៏មិនទាន់ដឹងថា តើវាអាចសម្រេចបានដែរ ឬអត់នោះទេ ហើយវានឹងចំណាយពេលយូរប៉ុណ្ណាដើម្បីទៅដល់ទីនោះ។

ទន្ទឹមនឹងនេះ កិច្ចខិតខំប្រឹងប្រែងកម្រិតទី 4 កំពុងព្យាយាមបន្តិចម្តងៗ ដើម្បីទទួលបានការអូសទាញមួយចំនួន ដោយឆ្លងកាត់ការសាកល្បងផ្លូវសាធារណៈតូចចង្អៀត និងជ្រើសរើស ទោះបីជាមានភាពចម្រូងចម្រាសលើថាតើការធ្វើតេស្តនេះគួរតែត្រូវបានអនុញ្ញាតក្នុងម្នាក់ៗក៏ដោយ (យើងទាំងអស់គ្នាគឺជាជ្រូកហ្គីណេដែលមានជីវិត ឬស្លាប់នៅក្នុងការពិសោធន៍មួយ។ កើតឡើងនៅលើផ្លូវហាយវេ និងផ្លូវរបស់យើង អ្នកខ្លះឈ្លោះគ្នា សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ).

ដោយសាររថយន្តពាក់កណ្តាលស្វ័យភាពតម្រូវឱ្យមានអ្នកបើកបរជាមនុស្សការអនុម័តប្រភេទរថយន្តទាំងនោះនឹងមិនខុសពីការបើកបរយានយន្តធម្មតាទេដូច្នេះមិនមានអ្វីថ្មីទេសម្រាប់និយាយអំពីប្រធានបទនេះ (ទោះបីជាអ្នកនឹងឃើញក៏ដោយ) ក្នុងពេលតែមួយចំនុចដែលបានធ្វើជាទូទៅអាចអនុវត្តបាន) ។

ចំពោះរថយន្តពាក់កណ្តាលស្វយ័តវាជាការសំខាន់ដែលសាធារណជនត្រូវដឹងជាមុនអំពីទិដ្ឋភាពគួរឱ្យព្រួយបារម្ភដែលកំពុងកើតឡើងនាពេលថ្មីៗនេះពោលគឺទោះបីអ្នកបើកបរមនុស្សទាំងនោះនៅតែបន្តបង្ហោះវីដេអូខ្លួនពួកគេដេកលង់លក់ក្នុងកង់រថយន្តកម្រិត ២ ឬលេខ ៣ ក៏ដោយ។ យើងទាំងអស់គ្នាត្រូវចៀសវាងកុំអោយវង្វេងស្មារតីជឿថាអ្នកបើកបរអាចយកការចាប់អារម្មណ៍របស់ពួកគេចេញពីភារកិច្ចបើកបរនៅពេលបើកបររថយន្តពាក់កណ្តាលស្វយ័ត។

អ្នកគឺជាអ្នកទទួលខុសត្រូវចំពោះសកម្មភាពបើកបររបស់យានយន្តដោយមិនគិតពីចំនួនស្វ័យប្រវត្តិកម្មដែលអាចត្រូវបានបោះចូលទៅក្នុងកម្រិត ២ ឬកម្រិត ៣ ។

រថយន្តបើកបរដោយខ្លួនឯង និង AI Biases

សម្រាប់យានយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដកម្រិតទី ៤ និងទី ៥ នឹងមិនមានអ្នកបើកបរជាមនុស្សចូលរួមក្នុងការងារបើកបរឡើយ។

អ្នកកាន់កាប់ទាំងអស់នឹងក្លាយជាអ្នកដំណើរ។

អេអាយអេកំពុងធ្វើការបើកបរ។

ទិដ្ឋភាពមួយដែលត្រូវពិភាក្សាភ្លាមៗទាក់ទងនឹងការពិតដែលថាអេ។ អាយ។ អិ។ ពាក់ព័ន្ធនឹងប្រព័ន្ធបើកបរ AI សព្វថ្ងៃមិនងាយស្រួលទេ។ និយាយម៉្យាងទៀតអេអាយគឺទាំងអស់គ្នាជាកម្មវិធីរួមបញ្ចូលគ្នានៃកម្មវិធីនិងក្បួនដោះស្រាយដែលផ្អែកលើកុំព្យូទ័រហើយភាគច្រើនប្រាកដជាមិនអាចវែកញែកតាមរបៀបដែលមនុស្សអាចធ្វើបានឡើយ។

ហេតុអ្វីបានជាការសង្កត់ធ្ងន់បន្ថែមអំពីអេអាយមិនមានអារម្មណ៍?

ដោយសារតែខ្ញុំចង់គូសបញ្ជាក់ថានៅពេលពិភាក្សាអំពីតួនាទីរបស់ប្រព័ន្ធបើកបរ AI ខ្ញុំមិនបានបង្ហាញពីគុណសម្បត្តិរបស់មនុស្សទៅនឹង AI ទេ។ សូមមេត្តាជ្រាបថាមានទំនោរដែលកំពុងបន្តនិងមានគ្រោះថ្នាក់នាពេលបច្ចុប្បន្ននេះចំពោះមនុស្សវិទូ។ បើនិយាយអោយចំទៅមនុស្សកំពុងតែផ្តល់នូវមនោសញ្ចេតនាស្រដៀងនឹងមនុស្សទៅនឹងអេអាយអេសព្វថ្ងៃនេះទោះបីជាការពិតដែលមិនអាចប្រកែកបាននិងមិនអាចកាត់ថ្លៃបានថាពុំមាន AI បែបនេះនៅឡើយទេ។

ជាមួយនឹងការបំភ្លឺនោះអ្នកអាចស្មានថាប្រព័ន្ធបើកបរ AI នឹងមិនមាន“ ដឹង” ពីលក្ខណៈនៃការបើកបរ។ ការបើកបរនិងអ្វីទាំងអស់ដែលវាតម្រូវឱ្យមានកម្មវិធីជាផ្នែកមួយនៃផ្នែករឹងនិងផ្នែកទន់នៃឡានបើកបរដោយខ្លួនឯង។

សូមមុជចូលទៅក្នុងទិដ្ឋភាពជាច្រើនដែលបានមកលេងលើប្រធានបទនេះ។

ជាដំបូង វាជារឿងសំខាន់ដែលត្រូវដឹងថា មិនមែនរថយន្តដែលបើកបរដោយខ្លួនឯង AI ទាំងអស់សុទ្ធតែដូចគ្នានោះទេ។ ក្រុមហ៊ុនផលិតរថយន្តនីមួយៗ និងក្រុមហ៊ុនបច្ចេកវិទ្យាបើកបរដោយខ្លួនឯងកំពុងប្រើប្រាស់វិធីសាស្រ្តរបស់ខ្លួនក្នុងការរៀបចំរថយន្តដែលបើកបរដោយស្វ័យប្រវត្តិ។ ដូចនេះ វាពិបាកក្នុងការធ្វើសេចក្តីថ្លែងការណ៍ដ៏ទូលំទូលាយអំពីអ្វីដែលប្រព័ន្ធបើកបរ AI នឹងធ្វើឬមិនធ្វើ។

លើសពីនេះទៅទៀតនៅពេលណាដែលបញ្ជាក់ថាប្រព័ន្ធបើកបរអេអាយមិនធ្វើអ្វីជាក់លាក់ណាមួយនោះនៅពេលក្រោយនេះអាចត្រូវបានអ្នកអភិវឌ្developersន៍យកឈ្នះដែលតាមពិតកម្មវិធីកុំព្យូទ័រអាចធ្វើបាន។ មួយជំហានម្តង ៗ ប្រព័ន្ធបើកបរអេអាយអាយកំពុងត្រូវបានកែលម្អនិងពង្រីកបន្តិចម្តង ៗ ។ ការដាក់កំហិតដែលមានស្រាប់នៅថ្ងៃនេះប្រហែលជាលែងមាននៅក្នុងការបង្កើតឡើងវិញឬកំណែប្រព័ន្ធនាពេលអនាគត។

ខ្ញុំជឿជាក់ថាផ្តល់នូវការព្រមានតិចតួចគ្រប់គ្រាន់ដើម្បីបញ្ជាក់ពីអ្វីដែលខ្ញុំចង់ទាក់ទង។

ឥឡូវនេះយើងកំពុងចាប់ផ្តើមដើម្បីធ្វើការជ្រមុជទឹកយ៉ាងជ្រៅទៅក្នុងរថយន្តដែលបើកបរដោយខ្លួនឯង និងលទ្ធភាពនៃ Ethical AI ដែលរួមបញ្ចូលទាំងបីប្រភេទនៃភាពលំអៀង AI ។

ស្រមៃមើលថារថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI កំពុងដំណើរការនៅលើផ្លូវសង្កាត់របស់អ្នក ហើយហាក់ដូចជាកំពុងបើកបរដោយសុវត្ថិភាព។ ដំបូង​ឡើយ អ្នក​បាន​យក​ចិត្ត​ទុក​ដាក់​ជា​ពិសេស​រាល់​ពេល​ដែល​អ្នក​អាច​មើល​ឃើញ​រថយន្ត​បើក​បរ​ដោយ​ខ្លួន​ឯង។ យានជំនិះស្វយ័តនេះបានលេចធ្លោជាមួយនឹងឧបករណ៍ចាប់សញ្ញាអេឡិចត្រូនិចដែលរួមមានកាមេរ៉ាវីដេអូ អង្គភាពរ៉ាដា ឧបករណ៍ LIDAR និងអ្វីៗផ្សេងទៀត។ បន្ទាប់ពីជាច្រើនសប្តាហ៍នៃរថយន្តបើកបរដោយខ្លួនឯងបានធ្វើដំណើរជុំវិញសហគមន៍របស់អ្នក ឥឡូវនេះអ្នកស្ទើរតែមិនកត់សំគាល់វាទេ។ តាម​ដែល​អ្នក​បារម្ភ វា​គ្រាន់​តែ​ជា​ឡាន​មួយ​ទៀត​នៅ​លើ​ផ្លូវ​សាធារណៈ​ដែល​មមាញឹក​រួច​ទៅ​ហើយ។

ក្រែង​អ្នក​គិត​ថា​វា​មិន​អាច​ទៅ​រួច ឬ​មិន​អាច​យល់​បាន​ក្នុង​ការ​ស៊ាំ​នឹង​ការ​ឃើញ​រថយន្ត​ដែល​បើក​បរ​ដោយ​ខ្លួន​ឯង ខ្ញុំ​បាន​សរសេរ​ជា​ញឹក​ញាប់​អំពី​របៀប​ដែល​អ្នក​ស្រុក​ដែល​ស្ថិត​ក្នុង​វិសាលភាព​នៃ​ការ​សាកល្បង​រថយន្ត​បើកបរ​ដោយ​ខ្លួន​ឯង​បាន​ស៊ាំ​ជា​បណ្តើរៗ​ដើម្បី​ឃើញ​រថយន្ត​ដែល​មាន​ការ​រីក​ចម្រើន។ មើលការវិភាគរបស់ខ្ញុំនៅ តំណនេះនៅទីនេះ. អ្នកស្រុកជាច្រើននាក់នៅទីបំផុតបានផ្លាស់ប្តូរពីមាត់ស្រែកថ្ងូរ មកឥឡូវនេះបញ្ចេញនូវភាពអផ្សុកយ៉ាងទូលំទូលាយ ដើម្បីបានឃើញរថយន្តដែលបើកបរដោយខ្លួនឯងទាំងនោះ។

ប្រហែលជាមូលហេតុចំបងនៅពេលនេះ ដែលពួកគេអាចសម្គាល់ឃើញយានជំនិះស្វយ័តគឺដោយសារតែកត្តាឆាប់ខឹង និងការហួសចិត្ត។ ប្រព័ន្ធ​បើកបរ AI ដែល​ធ្វើ​ឡើង​ដោយ​សៀវភៅ​ធ្វើ​ឱ្យ​ប្រាកដ​ថា​រថយន្ត​គោរព​តាម​ការ​កំណត់​ល្បឿន និង​ច្បាប់​ផ្លូវ​ទាំងអស់។ សម្រាប់អ្នកបើកបរដ៏មមាញឹកនៅក្នុងរថយន្តបើកបរដោយមនុស្សតាមបែបប្រពៃណីរបស់ពួកគេ អ្នកនឹងមានការធុញទ្រាន់នៅពេលដែលបានជាប់គាំងនៅពីក្រោយរថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI ដែលគោរពច្បាប់យ៉ាងតឹងរ៉ឹង។

នោះជាអ្វីមួយដែលយើងទាំងអស់គ្នាប្រហែលជាត្រូវទម្លាប់ធ្វើ ត្រឹមត្រូវ ឬខុស។

ត្រលប់ទៅរឿងនិទានរបស់យើង។

យើងនឹងពិចារណាបន្ទាប់ថាតើភាពលំអៀងជាប្រព័ន្ធអាចចូលមកលេងក្នុងបរិបទនៃរថយន្តបើកបរដោយខ្លួនឯងយ៉ាងដូចម្តេច។

បណ្ឌិត​ខ្លះ​ព្រួយ​បារម្ភ​ខ្លាំង​ណាស់​ថា​រថយន្ត​បើក​ដោយ​ខ្លួន​ឯង​នឹង​ក្លាយ​ជា​ខេត្ត​ដែល​មាន​តែ​អ្នក​មាន​និង​អភិជន។ វា​អាច​ថា​តម្លៃ​នៃ​ការ​ប្រើ​ប្រាស់​រថយន្ត​បើក​បរ​ដោយ​ខ្លួន​ឯង​នឹង​មាន​តម្លៃ​ថ្លៃ​គួរ​ឱ្យ​ខ្លាច។ លុះត្រាតែអ្នកមានលុយច្រើន អ្នកប្រហែលជាមិនបានឃើញខាងក្នុងរថយន្តដែលបើកបរដោយខ្លួនឯងនោះទេ។ អ្នក​ដែល​នឹង​ប្រើ​រថយន្ត​បើក​បរ​ដោយ​ខ្លួន​ឯង​នឹង​ត្រូវ​ក្លាយ​ជា​អ្នក​មាន​។

ដូច្នេះហើយ អ្នកខ្លះបានដាស់តឿនដោយខកចិត្តថាទម្រង់នៃភាពលំអៀងជាប្រព័ន្ធនឹងជ្រាបចូលទៅក្នុងការមកដល់នៃរថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI ។ ប្រព័ន្ធឧស្សាហ៍កម្មយានយន្តស្វ័យប្រវត្តិទាំងមូលនឹងរក្សារថយន្តដែលបើកបរដោយខ្លួនឯងឱ្យរួចផុតពីកណ្ដាប់ដៃរបស់ជនក្រីក្រ ឬអ្នកមានទ្រព្យធនតិច។ នេះប្រហែលជាមិនចាំបាច់ដោយចេតនាហួសហេតុនោះទេ ហើយគ្រាន់តែបង្ហាញថា មធ្យោបាយតែមួយគត់ដែលជឿជាក់ក្នុងការទាញយកបន្ទុកដ៏ថ្លៃថ្លានៃការបង្កើតរថយន្តបើកបរដោយខ្លួនឯងនឹងគិតថ្លៃខ្ពស់ហួសហេតុ។

ប្រសិនបើអ្នកតបវិញថា សព្វថ្ងៃនេះមានការសាកល្បងរថយន្តបើកបរដោយខ្លួនឯង ដែលអនុញ្ញាតឱ្យអ្នកប្រើប្រាស់ប្រចាំថ្ងៃ ដូច្នេះវាហាក់ដូចជាច្បាស់ថាអ្នកមិនចាំបាច់ក្លាយជាអ្នកមាននោះទេ ទឡ្ហីករណ៍នោះគឺថា នេះគឺជាហ្គេមសែលមួយប្រភេទ។ វាគឺ។ ក្រុមហ៊ុនផលិតរថយន្ត និងក្រុមហ៊ុនបច្ចេកវិទ្យាបើកបរដោយខ្លួនឯង ត្រូវបានគេសន្មត់ថាមានឆន្ទៈក្នុងការធ្វើឱ្យវាលេចឡើង ហាក់ដូចជាការចំណាយនឹងមិនមែនជាឧបសគ្គដ៏សំខាន់នោះទេ។ ពួកគេកំពុងធ្វើនេះសម្រាប់គោលបំណងទំនាក់ទំនងសាធារណៈនៅពេលនេះ ហើយនឹងឡើងថ្លៃនៅពេលដែលពួកគេរកឃើញស្នាមជ្រួញ។ អ្នកឃុបឃិត ថែមទាំងអាចអះអាងថា "ជ្រូកហ្គីណេ" ដូចដែលមនុស្សរាល់ថ្ងៃកំពុងត្រូវបានប្រើប្រាស់យ៉ាងសាហាវ ដើម្បីឱ្យអ្នកមានអាចក្លាយជាអ្នកមាន។

ដូច្នេះ ដោយសារបញ្ហាដ៏ចម្រូងចម្រាសនោះ ហើយការដាក់ប្រាក់ពីរសេនរបស់ខ្ញុំលើប្រធានបទដ៏អាក្រក់នេះ ខ្ញុំមិនជឿថារថយន្តដែលបើកបរដោយខ្លួនឯងនឹងមានតម្លៃលើសពីការប្រើប្រាស់ប្រចាំថ្ងៃនោះទេ។ ខ្ញុំនឹងមិនចូលទៅក្នុងព័ត៌មានលម្អិតនៅទីនេះទេ អំពីមូលដ្ឋានរបស់ខ្ញុំសម្រាប់ការទាមទារបែបនេះ ហើយសូមអញ្ជើញអ្នកឱ្យមើលការពិភាក្សាដោយយកចិត្តទុកដាក់របស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ ហើយនៅ តំណភ្ជាប់នៅទីនេះ.

បន្តទៅមុខទៀត យើងអាចពិចារណាលើបញ្ហានៃភាពលំអៀងផ្នែកស្ថិតិ និងការគណនាដែលទាក់ទងនឹង AI ។

សញ្ជឹងគិតអំពីសំណួរដែលមើលទៅហាក់ដូចជាមិនសមហេតុផលនៃកន្លែងដែលរថយន្តបើកបរដោយខ្លួនឯងនឹងត្រូវរ៉ូមីងដើម្បីទទួលអ្នកដំណើរ។ នេះ​ហាក់​ដូច​ជា​ប្រធាន​បទ​ដែល​គ្មាន​កំហុស​ច្រើន​ក្រៃលែង។ យើងនឹងប្រើរឿងនិទាននៃទីក្រុង ឬទីក្រុងដែលមានរថយន្តបើកបរដោយខ្លួនឯង ដើម្បីរំលេចនូវសក្តានុពលគួរឱ្យភ្ញាក់ផ្អើលនៃស្ថិតិ និងការគណនាដែលទាក់ទងនឹង AI ។

ដំបូង សន្មត់ថា AI កំពុងជិះរថយន្តបើកបរដោយខ្លួនឯងពេញទីក្រុងទាំងមូល។ អ្នក​ណា​ដែល​ចង់​ស្នើ​សុំ​ជិះ​រថយន្ត​ដែល​បើក​ដោយ​ខ្លួន​ឯង​នោះ ពិត​ជា​មាន​ឱកាស​ស្មើ​គ្នា​ក្នុង​ការ​ហៅ​ឡាន​មួយ។ បន្តិចម្ដងៗ AI បានចាប់ផ្តើមរក្សារថយន្តដែលបើកបរដោយខ្លួនឯងជាចម្បងនៅក្នុងផ្នែកមួយនៃទីក្រុង។ ផ្នែកនេះគឺជាអ្នកបង្កើតលុយកាន់តែច្រើន ហើយប្រព័ន្ធ AI ត្រូវបានកម្មវិធីដើម្បីព្យាយាម និងបង្កើនប្រាក់ចំណូលជាផ្នែកនៃការប្រើប្រាស់នៅក្នុងសហគមន៍។

សមាជិកសហគមន៍នៅក្នុងផ្នែកក្រីក្រនៃទីក្រុងទំនងជាមិនសូវមានលទ្ធភាពជិះរថយន្តដែលបើកបរដោយខ្លួនឯងនោះទេ។ នេះគឺដោយសារតែរថយន្តដែលបើកបរដោយខ្លួនឯងបាននៅឆ្ងាយជាង និងកំពុងធ្វើដំណើរក្នុងផ្នែកដែលមានប្រាក់ចំណូលខ្ពស់ជាងក្នុងតំបន់។ នៅពេលដែលសំណើមួយចូលមកពីផ្នែកឆ្ងាយនៃទីក្រុង សំណើណាមួយពីទីតាំងជិតដែលទំនងជានៅក្នុងផ្នែក "គួរឱ្យគោរព" នៃទីក្រុងនឹងទទួលបានអាទិភាពខ្ពស់ជាងនេះ។ នៅទីបំផុត លទ្ធភាពទទួលបានរថយន្តបើកបរដោយខ្លួនឯងនៅកន្លែងណាមួយក្រៅពីផ្នែកដ៏សម្បូរបែបនៃទីក្រុងគឺស្ទើរតែមិនអាចទៅរួចទេ ដែលគួរឱ្យហួសចិត្ត ដូច្នេះសម្រាប់អ្នកដែលរស់នៅក្នុងតំបន់ដែលខ្វះខាតធនធានឥឡូវនេះ។

អ្នក​អាច​អះអាង​ថា AI បាន​ធ្លាក់​ចុះ​មក​លើ​ទម្រង់​នៃ​ភាព​លំអៀង​ផ្នែក​ស្ថិតិ និង​ការ​គណនា ដែល​ស្រដៀង​នឹង​ទម្រង់​នៃ​ការ​រើសអើង​ប្រូកស៊ី (ក៏​ត្រូវ​បាន​គេ​ហៅ​ជា​ញឹកញាប់​ថា​ជា​ការ​រើសអើង​ដោយ​ប្រយោល)។ AI មិន​ត្រូវ​បាន​រៀបចំ​ឡើង​ដើម្បី​ជៀស​វាង​សង្កាត់​ក្រីក្រ​ទាំង​នោះ។ ផ្ទុយទៅវិញ វា "បានរៀន" ដើម្បីធ្វើដូច្នេះតាមរយៈការប្រើប្រាស់ ML/DL ។

វាត្រូវបានគេសន្មត់ថា AI នឹងមិនធ្លាក់ចូលទៅក្នុងខ្សាច់ដ៏អាម៉ាស់បែបនោះទេ។ មិនមានការត្រួតពិនិត្យឯកទេសណាមួយត្រូវបានបង្កើតឡើងដើម្បីតាមដានកន្លែងដែលរថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI នឹងទៅនោះទេ។ លុះ​ក្រោយ​ពី​សមាជិក​សហគមន៍​ចាប់​ផ្ដើម​ត្អូញត្អែរ ទើប​មេ​ដឹក​នាំ​ក្រុង​ដឹង​ថា​មាន​អ្វី​កើត​ឡើង។ សម្រាប់ព័ត៌មានបន្ថែមអំពីប្រភេទនៃបញ្ហាទូទាំងទីក្រុងទាំងនេះដែលយានយន្តស្វយ័ត និងរថយន្តបើកបរដោយខ្លួនឯងនឹងបង្ហាញ សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ ហើយដែលពិពណ៌នាអំពីការសិក្សាដែលដឹកនាំដោយសាកលវិទ្យាល័យ Harvard ដែលខ្ញុំបានសហការនិពន្ធលើប្រធានបទនេះ។

សម្រាប់ប្រភេទទីបីនៃភាពលំអៀងរបស់មនុស្សដែលទាក់ទងនឹងភាពលំអៀង AI យើងងាកទៅរកឧទាហរណ៍ដែលពាក់ព័ន្ធនឹង AI ដែលកំណត់ថាតើត្រូវឈប់សម្រាប់ការរង់ចាំអ្នកថ្មើរជើងដែលមិនមានសិទ្ធិឆ្លងកាត់ផ្លូវនោះទេ។

អ្នកពិតជាបានបើកបរ ហើយបានជួបប្រទះនឹងអ្នកថ្មើរជើងដែលកំពុងរង់ចាំឆ្លងផ្លូវ ហើយពួកគេមិនទាន់មានសិទ្ធិធ្វើផ្លូវនោះទេ។ នេះ​មាន​ន័យ​ថា​អ្នក​មាន​ឆន្ទានុសិទ្ធិ​ក្នុង​ការ​ថា​តើ​ត្រូវ​ឈប់​ហើយ​អនុញ្ញាត​ឱ្យ​ពួកគេ​ឆ្លង​កាត់។ អ្នក​អាច​បន្ត​ដោយ​មិន​អនុញ្ញាត​ឱ្យ​ពួក​គេ​ឆ្លង​កាត់ ហើយ​នៅ​តែ​ស្ថិត​ក្នុង​ច្បាប់​បើកបរ​ផ្លូវ​ច្បាប់​ពេញលេញ​នៃ​ការ​ធ្វើ​ដូច្នេះ។

ការសិក្សាអំពីរបៀបដែលអ្នកបើកបរមនុស្សសម្រេចចិត្តឈប់ ឬមិនឈប់សម្រាប់អ្នកថ្មើរជើងបែបនេះ បានបង្ហាញថា ពេលខ្លះអ្នកបើកបរមនុស្សធ្វើការជ្រើសរើសដោយផ្អែកលើភាពលំអៀងដែលមិនសមហេតុផល។ អ្នកបើកបរមនុស្សអាចសម្លឹងមើលអ្នកថ្មើរជើង ហើយជ្រើសរើសមិនឈប់ ទោះបីជាពួកគេនឹងឈប់ក៏ដោយ ប្រសិនបើអ្នកថ្មើរជើងមានរូបរាងខុសគ្នា ដូចជាផ្អែកលើពូជសាសន៍ ឬភេទ។ ខ្ញុំបានពិនិត្យរឿងនេះនៅ តំណភ្ជាប់នៅទីនេះ.

ស្រមៃថារថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI ត្រូវបានកម្មវិធីដើម្បីដោះស្រាយជាមួយនឹងសំណួរថាតើត្រូវឈប់ឬមិនឈប់សម្រាប់អ្នកថ្មើរជើងដែលមិនមានផ្លូវត្រូវ។ នេះជារបៀបដែលអ្នកអភិវឌ្ឍន៍ AI សម្រេចចិត្តរៀបចំកិច្ចការនេះ។ ពួកគេបានប្រមូលទិន្នន័យពីម៉ាស៊ីនថតវីដេអូរបស់ទីក្រុង ដែលត្រូវបានដាក់នៅជុំវិញទីក្រុង។ ទិន្នន័យបង្ហាញពីអ្នកបើកបររបស់មនុស្សដែលឈប់សម្រាប់អ្នកថ្មើរជើងដែលមិនមានផ្លូវត្រូវ និងអ្នកបើកបរមនុស្សដែលមិនឈប់។ វាត្រូវបានប្រមូលទាំងអស់ទៅក្នុងសំណុំទិន្នន័យដ៏ធំមួយ។

ដោយប្រើ Machine Learning និង Deep Learning ទិន្នន័យត្រូវបានយកគំរូតាមការគណនា។ ប្រព័ន្ធបើកបរ AI បន្ទាប់មកប្រើម៉ូដែលនេះដើម្បីសម្រេចថាពេលណាត្រូវឈប់ ឬមិនឈប់។ ជាទូទៅ គំនិតនេះគឺថា អ្វីក៏ដោយដែលទំនៀមទំលាប់ក្នុងស្រុកមាន នោះជារបៀបដែល AI នឹងដឹកនាំរថយន្តដែលបើកបរដោយខ្លួនឯងបាន។

ដើម្បីឱ្យអ្នកដឹកនាំទីក្រុង និងប្រជាជនមានការភ្ញាក់ផ្អើលនោះ AI ច្បាស់ជាជ្រើសរើសឈប់ ឬមិនឈប់ ដោយផ្អែកលើអាយុរបស់អ្នកថ្មើរជើង។ តើ​វា​អាច​កើត​ឡើង​ដោយ​របៀប​ណា?

តាមការពិនិត្យមើលកាន់តែដិតដល់នៃវីដេអូនៃការប្រុងប្រយ័ត្នរបស់អ្នកបើកបរ វាបង្ហាញថាករណីជាច្រើននៃការមិនបញ្ឈប់អ្នកថ្មើរជើងដែលមានឈើច្រត់របស់មនុស្សចាស់។ អ្នកបើកបរមនុស្សហាក់ដូចជាមិនចង់ឈប់ ហើយទុកឱ្យមនុស្សវ័យចំណាស់ម្នាក់ឆ្លងកាត់ផ្លូវ ដោយសន្មតថាដោយសារតែរយៈពេលដែលគេសន្មត់ថាអាចចំណាយពេលសម្រាប់នរណាម្នាក់ក្នុងការធ្វើដំណើរ។ ប្រសិនបើអ្នកថ្មើរជើងមើលទៅហាក់ដូចជាពួកគេអាចលោតយ៉ាងលឿនឆ្លងកាត់ផ្លូវ ហើយកាត់បន្ថយពេលវេលារង់ចាំរបស់អ្នកបើកបរ នោះអ្នកបើកបរកាន់តែមានចិត្តល្អក្នុងការអនុញ្ញាតឱ្យមនុស្សឆ្លងកាត់។

វាបានកប់យ៉ាងជ្រៅទៅក្នុងប្រព័ន្ធបើកបរ AI ។ ឧបករណ៍ចាប់សញ្ញានៃរថយន្តដែលបើកបរដោយខ្លួនឯងនឹងស្កេនអ្នកថ្មើរជើងដែលកំពុងរង់ចាំ បញ្ចូលទិន្នន័យនេះទៅក្នុងគំរូ ML/DL ហើយម៉ូដែលនឹងបញ្ចេញទៅ AI ថាតើត្រូវឈប់ ឬបន្ត។ ការចង្អុលបង្ហាញដែលមើលឃើញថាអ្នកថ្មើរជើងអាចយឺតក្នុងការឆ្លងកាត់ ដូចជាការប្រើអំពៅដើរ ត្រូវបានប្រើជាគណិតវិទ្យាដើម្បីកំណត់ថាតើប្រព័ន្ធបើកបរ AI គួរតែអនុញ្ញាតឱ្យអ្នកថ្មើរជើងដែលកំពុងរង់ចាំឆ្លងកាត់ឬអត់។

អ្នក​អាច​ប្រកែក​ថា​នេះ​គឺ​ជា​ការ​ពឹង​ផ្អែក​លើ​ការ​លំអៀង​របស់​មនុស្ស​ដែល​មាន​ស្រាប់។

សន្និដ្ឋាន

គំនិតចុងក្រោយមួយចំនួនសម្រាប់ពេលនេះ។

មានការនិយាយដ៏ពេញនិយមមួយថា អ្នកមិនអាចផ្លាស់ប្តូរសន្លឹកបៀដែលអ្នកត្រូវបានចែកនោះទេ ហើយជំនួសមកវិញត្រូវតែរៀនពីរបៀបលេងឱ្យបានគ្រប់គ្រាន់ជាមួយនឹងដៃអ្វីដែលអ្នកត្រូវបានផ្តល់ឱ្យ។

នៅក្នុងករណីនៃភាពលំអៀងរបស់ AI ប្រសិនបើយើងមិនយកចិត្តទុកដាក់លើការបង្កើតក្រមសីលធម៌ AI នៅទូទាំងក្រុមប្រឹក្សាភិបាល និងជាពិសេសធ្វើឱ្យមានភាពរឹងមាំនៃលក្ខណៈនៃភាពលំអៀង AI នោះ ប្រភេទដៃដែលយើងនឹងត្រូវដោះស្រាយនឹងពោរពេញដោយភាពគ្មានសីលធម៌។ និង​អាច​ជា​ទម្រង់​ខុស​ច្បាប់។ យើងត្រូវបញ្ឈប់សន្លឹកបៀទាំងនោះមិនធ្លាប់មាន ដើម្បីចាប់ផ្តើមជាមួយ។ គោលបំណងដ៏អង់អាចក្នុងការបង្កើត និងផ្សព្វផ្សាយស្តង់ដារ AI ប្រកបដោយសីលធម៌ គឺជាឧបករណ៍ដ៏សំខាន់មួយដើម្បីប្រយុទ្ធប្រឆាំងនឹងរលកយក្សស៊ូណាមិដែលកំពុងកើនឡើងនាពេលខាងមុខ។ អាយអេសសម្រាប់អាក្រក់.

អ្នកអាចសម្រេចចិត្តទៅកាន់ធនាគារថា ភាពលំអៀង AI ដែលរីករាលដាល និងគ្មានសីលធម៌ AI នឹងប្រៀបដូចជាសន្លឹកបៀដ៏ទន់ខ្សោយ ធ្វើឱ្យប៉ះពាល់ដល់ខ្លួនវា ហើយទំនងជាមហន្តរាយសម្រាប់យើងទាំងអស់គ្នា។

តោះលេងដើម្បីឈ្នះ ធ្វើដូច្នេះជាមួយ AI ប្រកបដោយក្រមសីលធម៌។

ប្រភព៖ https://www.forbes.com/sites/lanceeliot/2022/10/06/ai-ethics-and-ai-law-are-moving-toward-standards-that-explicitly-identify-and-manage- ភាពលំអៀង/