ក្រមសីលធម៌ AI បង្ហាញការភ្ញាក់ផ្អើលដែលថាការបណ្តុះបណ្តាល AI ឱ្យមានជាតិពុល ឬលម្អៀងអាចមានប្រយោជន៍ រួមទាំងសម្រាប់រថយន្តបើកបរដោយខ្លួនឯងទាំងនោះផងដែរ។

នេះ​ជា​ខ្សែ​ចាស់​មួយ​ដែល​ខ្ញុំ​ប្រាកដ​ថា​អ្នក​ធ្លាប់​បាន​ឮ​ពី​មុន​មក។

វាត្រូវការមួយដើម្បីស្គាល់មួយ។

អ្នកប្រហែលជាមិនដឹងថានេះជាការបញ្ចេញមតិដែលអាចតាមដាននៅដើមទសវត្សរ៍ឆ្នាំ 1900 ហើយជាធម្មតាត្រូវបានគេហៅនៅពេលសំដៅទៅលើអ្នកប្រព្រឹត្តខុស (ការប្រែប្រួលផ្សេងទៀតនៃឃ្លាចាប់ទាញត្រឡប់មកវិញដូចជា ទសវត្សរ៍ឆ្នាំ 1600)។ ឧទាហរណ៍នៃរបៀបដែលពាក្យសំដីនេះអាចត្រូវបានប្រើប្រាស់រួមបញ្ចូលនូវគំនិតដែលថាប្រសិនបើអ្នកចង់ចាប់ចោរនោះអ្នកត្រូវប្រើចោរដើម្បីធ្វើដូច្នេះ។ នេះ​បង្ហាញ​ពី​ការ​អះអាង​ថា វា​ត្រូវ​ការ​មួយ​ដើម្បី​ស្គាល់​មួយ។ ភាពយន្ត និងកម្មវិធីទូរទស្សន៍ជាច្រើនបានលើកយកចំណេះដឹងដ៏មានប្រយោជន៍នេះ ដែលជារឿយៗបង្ហាញថា មធ្យោបាយដែលអាចសម្រេចបានតែមួយគត់ដើម្បីចាប់ជនពាល ដែលជួលជនខិលខូចស្មើៗគ្នា ដើម្បីដេញតាមអ្នកធ្វើខុស។

ការផ្លាស់ប្តូរឧបករណ៍ អ្នកខ្លះអាចប្រើតក្កវិជ្ជាដូចគ្នានេះដើម្បីជជែកវែកញែកថាវិធីសមរម្យមួយដើម្បីស្វែងយល់ថាតើនរណាម្នាក់កំពុងបញ្ចូលការលំអៀងដែលមិនសមរម្យ និងជំនឿរើសអើងនឹងត្រូវស្វែងរកនរណាម្នាក់ដែលមានទំនោរបែបនេះរួចហើយ។ សន្មតថា បុគ្គលដែលពោរពេញដោយសេចក្តីលំអៀងរួចហើយ នឹងអាចយល់បានកាន់តែច្បាស់ថា មនុស្សដទៃនេះ ក៏មានពោពេញទៅដោយជាតិពុល។ ជាថ្មីម្តងទៀត វាត្រូវចំណាយពេលមួយដើម្បីដឹងថាមួយគឺជា mantra ដែលគេបានអនុម័ត។

ប្រតិកម្មដំបូងរបស់អ្នកចំពោះលទ្ធភាពនៃការប្រើប្រាស់មនុស្សលំអៀងដើម្បីបណ្តេញមនុស្សលំអៀងផ្សេងទៀតអាចជាការសង្ស័យ និងមិនជឿ។ យើង​មិន​អាច​ដឹង​ថា​តើ​នរណា​ម្នាក់​មាន​ការ​លម្អៀង​ដោយ​គ្រាន់​តែ​ពិនិត្យ​មើល​ពួកគេ ហើយ​មិន​ចាំបាច់​ងាក​ទៅ​រក​អ្នក​ផ្សេង​ដែល​មាន​លក្ខណៈ​ដូច​ធម្មជាតិ​នោះ​ទេ? វាហាក់ដូចជារឿងចម្លែកក្នុងចេតនាស្វែងរកនរណាម្នាក់ដែលមានភាពលំអៀង ដើម្បីស្វែងរកអ្នកដទៃដែលមានភាពលំអៀងផងដែរ។

ខ្ញុំគិតថាវាមួយផ្នែកអាស្រ័យលើថាតើអ្នកសុខចិត្តទទួលយកការបដិសេធដោយសន្មតថាវាត្រូវការមនុស្សម្នាក់ដើម្បីស្គាល់មួយ។ សូមចំណាំថា នេះមិនបង្ហាញថាវិធីតែមួយគត់ដើម្បីចាប់ចោរតម្រូវឱ្យអ្នកផ្តាច់មុខ និងតែងតែប្រើប្រាស់ចោរនោះទេ។ អ្នក​ទំនង​ជា​អាច​ប្រកែក​បាន​ថា​នេះ​គ្រាន់​តែ​ជា​ផ្លូវ​បន្ថែម​មួយ​ដែល​អាច​ត្រូវ​បាន​ពិចារណា​ដោយ​សមហេតុផល។ ប្រហែលជាពេលខ្លះអ្នកសុខចិត្តលេងសើចពីលទ្ធភាពនៃការប្រើប្រាស់ចោរដើម្បីចាប់ចោរ ខណៈដែលកាលៈទេសៈផ្សេងទៀតអាចធ្វើឱ្យនេះជាយុទ្ធសាស្ត្រដែលមិនអាចយល់បាន។

ប្រើឧបករណ៍ត្រឹមត្រូវសម្រាប់ការកំណត់ត្រឹមត្រូវ ដូចដែលពួកគេនិយាយ។

ឥឡូវ​នេះ​ខ្ញុំ​បាន​ដាក់​ចេញ​នូវ​មូលដ្ឋាន​គ្រឹះ​ទាំង​នោះ​ហើយ យើង​អាច​បន្ត​ទៅ​ផ្នែក​ប្រហែល​ជា​គួរ​ឱ្យ​ភ្ញាក់​ផ្អើល និង​គួរ​ឱ្យ​តក់​ស្លុត​នៃ​រឿងនិទាន​នេះ។

តើ​អ្នក​រូ​ច​រាល់​ហើយ​ឬ​នៅ​?

វិស័យ AI កំពុងបន្តអនុវត្តយ៉ាងសកម្មនូវសិក្ខាបទដូចគ្នា ដែលជួនកាលវាត្រូវការឱ្យគេស្គាល់មួយ ជាពិសេសនៅក្នុងករណីនៃការព្យាយាមបញ្ចៀស AI ដែលលម្អៀង ឬធ្វើសកម្មភាពក្នុងលក្ខណៈរើសអើង។ មែនហើយ គំនិតបង្វែរចិត្តគឺថា យើងប្រហែលជាមានបំណងចង់បង្កើត AI ដែលមានភាពលម្អៀង និងរើសអើងយ៉ាងពេញលេញ និងគ្មានការអៀនខ្មាស់ ដោយធ្វើដូច្នេះ ដើម្បីប្រើវាជាមធ្យោបាយមួយដើម្បីស្វែងរក និងរកឃើញ AI ផ្សេងទៀតដែលមានលក្ខណៈដូចគ្នាបេះបិទ។ ដូចដែលអ្នកនឹងឃើញក្នុងពេលបន្តិចទៀតនេះ មានភាពខុសគ្នានៃបញ្ហាក្រមសីលធម៌ AI ដែលគួរឱ្យព្រួយបារម្ភអំពីបញ្ហានេះ។ សម្រាប់ការគ្របដណ្តប់ដែលកំពុងបន្ត និងទូលំទូលាយរបស់ខ្ញុំនៃ AI Ethics និង Ethical AI សូមមើល តំណភ្ជាប់នៅទីនេះ និង តំណភ្ជាប់នៅទីនេះ, គ្រាន់តែឈ្មោះមួយចំនួន។

ខ្ញុំគិតថាអ្នកអាចបង្ហាញពីការប្រើប្រាស់ AI ពុលនេះដើម្បីធ្វើតាម AI ពុលផ្សេងទៀតដែលជាសុភាសិតប្រយុទ្ធនឹងភ្លើងជាមួយភ្លើង (យើងអាចហៅពាក្យស្លោកជាច្រើន និងពាក្យប្រៀបធៀបដើម្បីពណ៌នាអំពីស្ថានភាពនេះ)។ ឬដូចដែលបានបញ្ជាក់រួចមកហើយ យើងអាចសំដៅទៅលើការអះអាងដែលថាវាត្រូវការមនុស្សម្នាក់ដើម្បីស្គាល់មួយ។

គោលគំនិតដ៏ទូលំទូលាយគឺថា ជាជាងការព្យាយាមរកឱ្យឃើញថាតើប្រព័ន្ធ AI ដែលបានផ្តល់ឱ្យមានការលំអៀងមិនសមរម្យ ដោយប្រើវិធីសាស្រ្តសាមញ្ញ ប្រហែលជាយើងគួរតែស្វែងរកការប្រើប្រាស់មធ្យោបាយសាមញ្ញផងដែរ។ មធ្យោបាយមិនធម្មតាមួយនឹងបង្កើត AI ដែលផ្ទុកនូវភាពលំអៀងដ៏អាក្រក់បំផុត និងសារធាតុពុលដែលមិនអាចទទួលយកបានក្នុងសង្គម ហើយបន្ទាប់មកប្រើ AI នេះដើម្បីជួយក្នុងការកំចាត់ AI ផ្សេងទៀតដែលមានទំនោរអាក្រក់ដូចគ្នា។

នៅពេលអ្នកផ្តល់ការគិតយ៉ាងរហ័សនេះ វាប្រាកដជាហាក់ដូចជាសមហេតុផលឥតខ្ចោះ។ យើងអាចមានបំណងបង្កើត AI ដែលមានជាតិពុលដល់អតិបរមា។ AI ពុលនេះត្រូវបានប្រើដើម្បីកម្ចាត់ AI ផ្សេងទៀតដែលមានជាតិពុលផងដែរ។ សម្រាប់ AI "អាក្រក់" ដែលបង្ហាញឱ្យឃើញនៅពេលនោះ យើងអាចដោះស្រាយវាបានដោយការលុបចោលការពុល លុបចោល AI ទាំងស្រុង (សូមមើលការគ្របដណ្តប់របស់ខ្ញុំអំពីការខូចទ្រង់ទ្រាយ AI ឬការបំផ្លិចបំផ្លាញនៅ តំណនេះនៅទីនេះ) ឬដាក់គុក AI (សូមមើលការគ្របដណ្តប់របស់ខ្ញុំអំពីការបង្ខាំង AI នៅ តំណនេះនៅទីនេះ) ឬធ្វើអ្វីផ្សេងទៀតដែលហាក់ដូចជាអាចធ្វើបាន។

ទឡ្ហីករណ៍មួយគឺថា យើងគួរតែពិនិត្យមើលថាយើងកំពុងរៀបចំ AI ដោយចេតនា និងដោយចេតនាដែលមានជាតិពុល និងពោរពេញទៅដោយភាពលំអៀង។ នេះ​ជា​រឿង​ចុង​ក្រោយ​ដែល​យើង​គួរ​ពិចារណា​ខ្លះ​នឹង​ដាស់តឿន។ ផ្តោតលើការបង្កើត AI ដែលមានភាពល្អទាំងស្រុង។ កុំផ្តោតលើការបង្កើត AI ដែលមានអំពើអាក្រក់ និងការលម្អៀងដែលមិនសមរម្យ។ គំនិត​នៃ​ការ​ដេញ​តាម​បែប​នេះ​ហាក់​ដូច​ជា​ច្រណែន​នឹង​អ្នក​ខ្លះ។

មាន​បញ្ហា​ច្រើន​ទៀត​អំពី​ដំណើរ​ស្វែងរក​ដ៏​ចម្រូងចម្រាស​នេះ។

ប្រហែលជាបេសកកម្មនៃការបង្កើត AI ពុលនឹងគ្រាន់តែពង្រឹងអ្នកដែលមានបំណងបង្កើត AI ដែលអាចកាត់បន្ថយសង្គម។ វាដូចជាយើងកំពុងនិយាយថា ការបង្កើត AI ដែលមានភាពលំអៀងមិនសមរម្យ និងមិនចូលចិត្តគឺពិតជាល្អណាស់។ គ្មានកង្វល់ គ្មានការស្ទាក់ស្ទើរ។ ស្វែងរកការបង្កើត AI ពុលទៅក្នុងខ្លឹមសារបេះដូងរបស់អ្នក យើងកំពុងផ្សព្វផ្សាយយ៉ាងខ្លាំងដល់អ្នកបង្កើត AI នៅទូទាំងពិភពលោក។ វាគឺ (ខ្វាក់ភ្នែក) ទាំងអស់ក្នុងនាមនៃសេចក្តីល្អ។

លើសពីនេះ ឧបមាថាប្រភេទ AI ពុលនេះចាប់បានហើយ។ វាអាចថា AI ត្រូវបានប្រើប្រាស់ និងប្រើប្រាស់ឡើងវិញដោយអ្នកបង្កើត AI ជាច្រើនទៀត។ នៅទីបំផុត AI ពុលត្រូវបានលាក់នៅក្នុងគ្រប់ប្រព័ន្ធ AI ។ ភាពស្រដៀងគ្នាអាចត្រូវបានធ្វើឡើងចំពោះការបង្កើតមេរោគដែលបំផ្លាញមនុស្ស ដែលគេចចេញពីមន្ទីរពិសោធន៍បិទជិត។ រឿង​បន្ទាប់​ដែល​អ្នក​ដឹង​រឿង​អាក្រក់​គឺ​នៅ​គ្រប់​ទី​កន្លែង​ហើយ​យើង​បាន​លុប​ខ្លួន​ចេញ​។

រង់ចាំមួយវិនាទី ប្រឆាំងទៅនឹងការប្រឆាំងទាំងនោះទៅ អ្នកកំពុងរត់អាម៉ុកជាមួយនឹងការសន្មត់ឆ្កួតៗ និងមិនគាំទ្រគ្រប់ប្រភេទ។ ដកដង្ហើមវែងៗ។ ស្ងប់ស្ងាត់ខ្លួនឯង។

យើងអាចបង្កើត AI ដែលមានជាតិពុល និងរក្សាវាដោយសុវត្ថិភាព។ យើងអាចប្រើ AI ពុលដើម្បីស្វែងរក និងជួយក្នុងការកាត់បន្ថយការកើនឡើងនៃអត្រាប្រេវ៉ាឡង់នៃ AI ដែលជាអកុសលមានការលំអៀងមិនសមរម្យ។ រាល់ពាក្យឧទានដ៏ព្រៃផ្សៃ និងគ្មានហេតុផលទាំងនេះ គឺជាប្រតិកម្មជង្គង់សុទ្ធសាធ និងគួរឱ្យសោកស្ដាយ ដែលល្ងង់ខ្លៅ និងល្ងង់ខ្លៅ។ កុំព្យាយាមបោះចោលទារកដោយទឹកងូតទឹក អ្នកត្រូវបានព្រមានជាមុន។

គិត​បែប​នេះ​អ្នក​គាំទ្រ​ប្រកែក។ ការកសាង និងការប្រើប្រាស់សារធាតុ AI ដ៏ត្រឹមត្រូវសម្រាប់គោលបំណងនៃការស្រាវជ្រាវ ការវាយតម្លៃ និងការធ្វើសកម្មភាពដូចជាអ្នកស៊ើបអង្កេតដើម្បីស្វែងរកការវាយលុកក្នុងសង្គមផ្សេងទៀត AI គឺជាវិធីសាស្រ្តដ៏សក្តិសម ហើយគួរតែទទួលបានភាពរង្គោះរង្គើដោយយុត្តិធម៌ក្នុងការបន្ត។ ទុកចោលប្រតិកម្មកន្ទួលរបស់អ្នក។ ចុះ​មក​លើ​ផែនដី​ហើយ​មើល​យ៉ាង​ម៉ឺងម៉ាត់។ ភ្នែករបស់យើងគឺនៅលើរង្វាន់ ពោលគឺការលាតត្រដាង និងលុបចោលនូវភាពកខ្វក់នៃប្រព័ន្ធ AI ដែលមានមូលដ្ឋានលើភាពលំអៀង និងធ្វើឱ្យប្រាកដថាក្នុងនាមសង្គមមួយ យើងមិនក្លាយជាជ្រុលហួសហេតុជាមួយនឹង AI ពុលនោះទេ។

រយៈពេល។ សញ្ញា​ខណ្ឌ។

មានវិធីសំខាន់ៗជាច្រើនដើម្បីស្វែងយល់ពីសញ្ញាណនៃការប្រើប្រាស់ AI ដែលមានជាតិពុល ឬលំអៀងសម្រាប់គោលបំណងមានប្រយោជន៍ រួមមានៈ

  • រៀបចំសំណុំទិន្នន័យដែលមានចេតនាលំអៀង និងទិន្នន័យពុលទាំងស្រុង ដែលអាចត្រូវបានប្រើសម្រាប់ការបណ្តុះបណ្តាល AI ទាក់ទងនឹងអ្វីដែលមិនគួរធ្វើ និង/ឬអ្វីដែលត្រូវមើល
  • ប្រើសំណុំទិន្នន័យបែបនេះដើម្បីបណ្តុះបណ្តាល Machine Learning (ML) និង Deep Learning (DL) model អំពីការរកឃើញភាពលំអៀង និងស្វែងរកគំរូគណនាដែលទាក់ទងនឹងការបំពុលសង្គម
  • អនុវត្តសារធាតុពុលដែលបានបណ្តុះបណ្តាល ML/DL ឆ្ពោះទៅរក AI ផ្សេងទៀត ដើម្បីបញ្ជាក់ថាតើ AI គោលដៅមានសក្តានុពលមានភាពលំអៀង និងពុលដែរឬទេ
  • ធ្វើឱ្យមានជាតិពុលដែលបានទទួលការបណ្តុះបណ្តាល ML/DL ដើម្បីបង្ហាញដល់អ្នកបង្កើត AI នូវអ្វីដែលត្រូវប្រុងប្រយ័ត្ន ដូច្នេះពួកគេអាចពិនិត្យមើលគំរូបានយ៉ាងងាយស្រួល ដើម្បីមើលថាតើភាពលំអៀងដែលត្រូវបានបង្កប់ដោយក្បួនដោះស្រាយកើតឡើងយ៉ាងដូចម្តេច។
  • ជាឧទាហរណ៍អំពីគ្រោះថ្នាក់នៃសារធាតុពុល AI ដែលជាផ្នែកមួយនៃក្រមសីលធម៌ AI និងការយល់ដឹងអំពីសីលធម៌ AI ទាំងអស់ដែលត្រូវបានប្រាប់តាមរយៈគំរូ AI ស៊េរី AI ដ៏អាក្រក់របស់កូន។
  • ផ្សេងទៀត

មុននឹងចូលទៅក្នុងសាច់នៃផ្លូវជាច្រើននោះ ចូរយើងបង្កើតមូលដ្ឋានគ្រឹះបន្ថែមមួយចំនួន។

អ្នកប្រហែលជាដឹងយ៉ាងច្បាស់ថា សំឡេងខ្លាំងបំផុតមួយនាពេលបច្ចុប្បន្ននេះនៅក្នុងវិស័យ AI និងសូម្បីតែនៅខាងក្រៅវិស័យ AI មានការស្រែកឡើងសម្រាប់ភាពស្រដៀងគ្នានៃ Ethical AI កាន់តែខ្លាំង។ សូមក្រឡេកមើលថាតើវាមានន័យយ៉ាងណាក្នុងការសំដៅទៅលើ AI Ethics និង Ethical AI ។ លើសពីនេះ យើងអាចកំណត់ដំណាក់កាលដោយស្វែងយល់ពីអ្វីដែលខ្ញុំចង់មានន័យ នៅពេលខ្ញុំនិយាយអំពី Machine Learning និង Deep Learning។

ផ្នែកជាក់លាក់មួយ ឬផ្នែកនៃក្រមសីលធម៌ AI ដែលកំពុងទទួលបានការចាប់អារម្មណ៍ពីប្រព័ន្ធផ្សព្វផ្សាយជាច្រើនរួមមាន AI ដែលបង្ហាញពីភាពលំអៀង និងភាពមិនស្មើគ្នា។ អ្នកប្រហែលជាដឹងហើយថា នៅពេលដែលយុគសម័យចុងក្រោយនៃ AI បានចាប់ផ្តើម មានការសាទរយ៉ាងខ្លាំងចំពោះអ្វីដែលមនុស្សមួយចំនួនហៅថា អាយអេសដើម្បីភាពល្អ. ជាអកុសល យើងចាប់ផ្តើមធ្វើសាក្សីដោយភាពរំភើបរីករាយ អាយអេសសម្រាប់អាក្រក់. ជាឧទាហរណ៍ ប្រព័ន្ធសម្គាល់មុខដែលមានមូលដ្ឋានលើ AI ជាច្រើនត្រូវបានបង្ហាញថាមានផ្ទុកនូវភាពលំអៀងជាតិសាសន៍ និងលម្អៀងយេនឌ័រ ដែលខ្ញុំបានពិភាក្សានៅ តំណភ្ជាប់នៅទីនេះ.

ខំប្រឹងទប់ទល់ អាយអេសសម្រាប់អាក្រក់ កំពុងដំណើរការយ៉ាងសកម្ម។ ក្រៅពីស្រែកថ្ងូរ ផ្នែកច្បាប់ ការខិតខំប្រឹងប្រែងក្នុងការទប់ទល់នឹងការប្រព្រឹត្តខុស វាក៏មានការជំរុញយ៉ាងសំខាន់ឆ្ពោះទៅរកការទទួលយកក្រមសីលធម៌ AI ដើម្បីកែតម្រូវភាពអាក្រក់របស់ AI ។ គំនិតនេះគឺថាយើងគួរតែទទួលយក និងគាំទ្រគោលការណ៍សីលធម៌ AI សំខាន់ៗសម្រាប់ការអភិវឌ្ឍន៍ និងការអនុវត្តរបស់ AI ដើម្បីធ្វើដូច្នេះដើម្បីកាត់បន្ថយ។ អាយអេសសម្រាប់អាក្រក់ ហើយក្នុងពេលដំណាលគ្នាផ្សព្វផ្សាយ និងផ្សព្វផ្សាយការពេញចិត្ត អាយអេសដើម្បីភាពល្អ.

តាមគំនិតដែលពាក់ព័ន្ធ ខ្ញុំជាអ្នកតស៊ូមតិក្នុងការព្យាយាមប្រើ AI ជាផ្នែកនៃដំណោះស្រាយចំពោះបញ្ហា AI ដោយប្រយុទ្ធនឹងភ្លើងក្នុងរបៀបនៃការគិតនោះ។ ជាឧទាហរណ៍ យើងអាចបញ្ចូលសមាសធាតុ Ethical AI ទៅក្នុងប្រព័ន្ធ AI ដែលនឹងត្រួតពិនិត្យពីរបៀបដែល AI ដែលនៅសល់កំពុងធ្វើ ហើយដូច្នេះវាអាចចាប់យកការខិតខំប្រឹងប្រែងរើសអើងណាមួយក្នុងពេលជាក់ស្តែង សូមមើលការពិភាក្សារបស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ. យើងក៏អាចមានប្រព័ន្ធ AI ដាច់ដោយឡែកដែលដើរតួជាប្រភេទនៃម៉ូនីទ័រ AI Ethics ។ ប្រព័ន្ធ AI ដើរតួជាអ្នកត្រួតពិនិត្យដើម្បីតាមដាន និងរកឃើញនៅពេលដែល AI មួយផ្សេងទៀតកំពុងចូលទៅក្នុងទីជ្រៅបំផុតដែលគ្មានសីលធម៌ (សូមមើលការវិភាគរបស់ខ្ញុំអំពីសមត្ថភាពបែបនេះនៅ តំណភ្ជាប់នៅទីនេះ).

បន្តិចទៀតនេះ ខ្ញុំនឹងចែករំលែកជាមួយអ្នកនូវគោលការណ៍ទូទៅមួយចំនួនដែលស្ថិតនៅក្រោមក្រមសីលធម៌ AI ។ មានបញ្ជីប្រភេទទាំងនេះជាច្រើនអណ្តែតនៅជុំវិញទីនេះ និងទីនោះ។ អ្នកអាចនិយាយបានថា មិនទាន់មានបញ្ជីឯកវចនៈនៃការអំពាវនាវជាសកល និងការស្របគ្នានៅឡើយ។ នោះ​ជា​ដំណឹង​អកុសល។ ដំណឹងល្អនោះគឺថា យ៉ាងហោចណាស់មានបញ្ជីសីលធម៌ AI ដែលអាចរកបានរួចរាល់ ហើយពួកគេមានទំនោរស្រដៀងគ្នា។ ទាំងអស់បានប្រាប់ នេះបង្ហាញថាតាមរយៈទម្រង់នៃការបញ្ចូលគ្នាប្រកបដោយហេតុផលនៃប្រភេទដែលយើងកំពុងស្វែងរកវិធីរបស់យើងឆ្ពោះទៅរកភាពសាមញ្ញទូទៅនៃអ្វីដែល AI Ethics មាន។

ជាដំបូង សូមនិយាយដោយសង្ខេបនូវសិក្ខាបទនៃក្រមសីលធម៌ AI រួមមួយចំនួន ដើម្បីបង្ហាញពីអ្វីដែលគួរតែជាការពិចារណាដ៏សំខាន់សម្រាប់នរណាម្នាក់ដែលបង្កើត បង្កើត ឬប្រើប្រាស់ AI ។

ជាឧទាហរណ៍ ដូចមានចែងដោយបុរីវ៉ាទីកង់ ទីក្រុងរ៉ូមអំពាវនាវឱ្យមានក្រមសីលធម៌ AI ហើយដូចដែលខ្ញុំបានគ្របដណ្តប់ស៊ីជម្រៅ តំណភ្ជាប់នៅទីនេះទាំងនេះគឺជាគោលការណ៍សីលធម៌ AI ចម្បងចំនួនប្រាំមួយដែលបានកំណត់របស់ពួកគេ៖

  • តម្លាភាព: ជាគោលការណ៍ ប្រព័ន្ធ AI ត្រូវតែអាចពន្យល់បាន។
  • បញ្ចូល៖ តម្រូវការរបស់មនុស្សគ្រប់រូបត្រូវតែយកមកពិចារណា ដើម្បីឲ្យមនុស្សគ្រប់រូបទទួលបានអត្ថប្រយោជន៍ ហើយបុគ្គលទាំងអស់អាចទទួលបានលក្ខខណ្ឌល្អបំផុតដើម្បីបង្ហាញពីខ្លួនឯង និងអភិវឌ្ឍ។
  • ទំនួលខុសត្រូវ: អ្នកដែលរចនា និងដាក់ពង្រាយការប្រើប្រាស់ AI ត្រូវតែដំណើរការដោយការទទួលខុសត្រូវ និងតម្លាភាព
  • មិនលំអៀង៖ កុំបង្កើត ឬធ្វើសកម្មភាពដោយលំអៀង ការពារភាពត្រឹមត្រូវ និងសេចក្តីថ្លៃថ្នូររបស់មនុស្ស
  • ភាពជឿជាក់៖ ប្រព័ន្ធ AI ត្រូវតែអាចដំណើរការដោយភាពជឿជាក់
  • សុវត្ថិភាព និងឯកជនភាព៖ ប្រព័ន្ធ AI ត្រូវតែដំណើរការដោយសុវត្ថិភាព និងគោរពភាពឯកជនរបស់អ្នកប្រើប្រាស់។

ដូចដែលបានបញ្ជាក់ដោយក្រសួងការពារជាតិសហរដ្ឋអាមេរិក (DoD) នៅក្នុងរបស់ពួកគេ។ គោលការណ៍សីលធម៌សម្រាប់ការប្រើប្រាស់បញ្ញាសិប្បនិម្មិត ហើយដូចដែលខ្ញុំបានគ្របដណ្តប់ស៊ីជម្រៅ តំណភ្ជាប់នៅទីនេះនេះគឺជាគោលការណ៍សីលធម៌ AI ចម្បងចំនួនប្រាំមួយរបស់ពួកគេ៖

  • ទទួលខុសត្រូវ: បុគ្គលិក DoD នឹងអនុវត្តកម្រិតនៃការវិនិច្ឆ័យ និងការថែទាំសមស្រប ខណៈពេលដែលនៅតែទទួលខុសត្រូវចំពោះការអភិវឌ្ឍន៍ ការដាក់ពង្រាយ និងការប្រើប្រាស់សមត្ថភាព AI ។
  • សមភាព៖ នាយកដ្ឋាននឹងចាត់វិធានការដោយចេតនា ដើម្បីកាត់បន្ថយភាពលំអៀងដោយអចេតនានៅក្នុងសមត្ថភាព AI ។
  • អាចតាមដានបាន៖ សមត្ថភាព AI របស់នាយកដ្ឋាននឹងត្រូវបានបង្កើតឡើង និងដាក់ឱ្យប្រើប្រាស់ ដែលបុគ្គលិកពាក់ព័ន្ធមានការយល់ដឹងសមស្របអំពីបច្ចេកវិទ្យា ដំណើរការអភិវឌ្ឍន៍ និងវិធីសាស្រ្តប្រតិបត្តិការដែលអនុវត្តចំពោះសមត្ថភាព AI រួមទាំងវិធីសាស្រ្តតម្លាភាព និងសវនកម្ម ប្រភពទិន្នន័យ និងនីតិវិធីរចនា និងឯកសារ។
  • អាចជឿទុកចិត្តបាន: សមត្ថភាព AI របស់នាយកដ្ឋាននឹងមានការប្រើប្រាស់ច្បាស់លាស់ និងច្បាស់លាស់ ហើយសុវត្ថិភាព សុវត្ថិភាព និងប្រសិទ្ធភាពនៃសមត្ថភាពទាំងនោះនឹងត្រូវឆ្លងកាត់ការធ្វើតេស្ត និងការធានានៅក្នុងការប្រើប្រាស់ដែលបានកំណត់នៅទូទាំងវដ្តជីវិតរបស់ពួកគេ។
  • អាចគ្រប់គ្រងបាន៖ នាយកដ្ឋាននឹងរចនា និងវិស្វកម្មសមត្ថភាព AI ដើម្បីបំពេញមុខងារដែលបានគ្រោងទុក ខណៈពេលដែលមានសមត្ថភាពក្នុងការរកឃើញ និងជៀសវាងផលវិបាកដែលមិនចង់បាន និងសមត្ថភាពក្នុងការផ្តាច់ ឬបិទប្រព័ន្ធដែលបានដាក់ពង្រាយ ដែលបង្ហាញពីអាកប្បកិរិយាអចេតនា។

ខ្ញុំក៏បានពិភាក្សាផងដែរអំពីការវិភាគសមូហភាពផ្សេងៗនៃគោលការណ៍សីលធម៌ AI រួមទាំងការគ្របដណ្តប់លើសំណុំដែលបង្កើតឡើងដោយអ្នកស្រាវជ្រាវដែលបានពិនិត្យ និងបង្រួមខ្លឹមសារនៃគោលការណ៍សីលធម៌ AI ជាតិ និងអន្តរជាតិជាច្រើននៅក្នុងក្រដាសដែលមានចំណងជើងថា "ទេសភាពសកលនៃគោលការណ៍ណែនាំសីលធម៌ AI" (បោះពុម្ពផ្សាយ ក្នុង ធម្មជាតិ) ហើយការគ្របដណ្តប់របស់ខ្ញុំរុករកនៅ តំណភ្ជាប់នៅទីនេះដែលនាំទៅដល់បញ្ជីគន្លឹះនេះ៖

  • តម្លាភាព
  • យុត្តិធម៌ និងយុត្តិធម៌
  • ភាពមិនអាក្រក់
  • ការទទួលខុសត្រូវ
  • ភាពឯកជន
  • អត្ថប្រយោជន៍
  • សេរីភាព និងស្វ័យភាព
  • ការជឿទុកចិត្ត
  • និរន្តរភាព
  • សេចក្តីថ្លៃថ្នូរ
  • សាមគ្គីភាព

ដូចដែលអ្នកអាចទាយដោយផ្ទាល់ ការព្យាយាមកំណត់ចំណុចជាក់លាក់នៃគោលការណ៍ទាំងនេះអាចជារឿងពិបាកធ្វើណាស់។ កាន់តែពិសេសជាងនេះទៅទៀត ការខិតខំប្រឹងប្រែងដើម្បីបង្វែរគោលការណ៍ដ៏ទូលំទូលាយទាំងនោះទៅជាអ្វីដែលជាក់ស្តែង និងលម្អិតគ្រប់គ្រាន់ដើម្បីប្រើប្រាស់នៅពេលបង្កើតប្រព័ន្ធ AI ក៏ជាចំណុចពិបាកមួយក្នុងការបំបែក។ វាជាការងាយស្រួលក្នុងការធ្វើការគ្រវីដៃខ្លះៗអំពីអ្វីដែល AI Ethics សិក្ខាបទគឺ និងរបៀបដែលពួកគេគួរត្រូវបានសង្កេតជាទូទៅ ខណៈពេលដែលវាជាស្ថានភាពស្មុគស្មាញជាងនៅក្នុង AI coding ដែលត្រូវតែជាកៅស៊ូពិតប្រាកដដែលជួបនឹងផ្លូវ។

គោលការណ៍ក្រមសីលធម៌ AI នឹងត្រូវប្រើប្រាស់ដោយអ្នកអភិវឌ្ឍន៍ AI រួមជាមួយនឹងអ្នកដែលគ្រប់គ្រងកិច្ចខិតខំប្រឹងប្រែងក្នុងការអភិវឌ្ឍន៍ AI និងសូម្បីតែអ្នកដែលនៅទីបំផុតអនុវត្ត និងថែទាំប្រព័ន្ធ AI ។ ភាគីពាក់ព័ន្ធទាំងអស់នៅទូទាំងវដ្តជីវិត AI នៃការអភិវឌ្ឍន៍ និងការប្រើប្រាស់ត្រូវបានពិចារណាក្នុងវិសាលភាពនៃការគោរពតាមបទដ្ឋានដែលត្រូវបានបង្កើតឡើងនៃ Ethical AI ។ នេះគឺជាការគូសបញ្ជាក់ដ៏សំខាន់មួយចាប់តាំងពីការសន្មត់ធម្មតាគឺថា "មានតែអ្នកសរសេរកូដ" ឬអ្នកដែលកម្មវិធី AI ប៉ុណ្ណោះដែលត្រូវប្រកាន់ខ្ជាប់នូវគោលគំនិតសីលធម៌របស់ AI ។ ដូចដែលបានបញ្ជាក់រួចមកហើយ វាត្រូវការភូមិមួយដើម្បីបង្កើត និងអនុវត្ត AI ហើយភូមិទាំងមូលត្រូវតែគោរព និងគោរពតាមសិក្ខាបទ AI ។

យើងក៏ត្រូវប្រាកដថាយើងនៅលើទំព័រដូចគ្នាអំពីលក្ខណៈនៃ AI នាពេលបច្ចុប្បន្ននេះ។

មិនមាន AI ណាមួយដែលប្រកបដោយមនោសញ្ចេតនាទេ។ យើងមិនមាននេះទេ។ យើង​មិន​ដឹង​ថា​តើ​ AI ​អាច​នឹង​កើត​ឡើង​ឬ​អត់​នោះ​ទេ។ គ្មាននរណាម្នាក់អាចទស្សន៍ទាយបានច្បាស់ថា តើយើងនឹងសម្រេចបាន AI អារម្មណ៍ ឬថាតើ AI អារម្មណ៍នឹងកើតឡើងដោយអព្ភូតហេតុដោយឯកឯងក្នុងទម្រង់នៃ supernova នៃការយល់ដឹងតាមការគណនា (ជាទូទៅគេហៅថាឯកវចនៈ សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ).

ប្រភេទនៃ AI ដែលខ្ញុំកំពុងផ្តោតលើមាន AI ដែលមិនមានអារម្មណ៍ដែលយើងមានសព្វថ្ងៃនេះ។ ប្រសិនបើយើងចង់ស្មានទុកជាមុន អ្នកផ្ញើ AI ការពិភាក្សានេះអាចទៅក្នុងទិសដៅខុសគ្នាយ៉ាងខ្លាំង។ AI ដែល​មាន​អារម្មណ៍​ថា​នឹង​មាន​គុណភាព​មនុស្ស។ អ្នកនឹងត្រូវពិចារណាថា AI អារម្មណ៍គឺស្មើនឹងការយល់ដឹងរបស់មនុស្ស។ ជាងនេះទៅទៀត ចាប់តាំងពីមានការប៉ាន់ស្មានខ្លះថា យើងប្រហែលជាមាន AI ដ៏វៃឆ្លាតទំនើប ដូច្នេះហើយទើបអាចសន្និដ្ឋានបានថា AI បែបនេះអាចមានភាពវៃឆ្លាតជាងមនុស្សទៅទៀត (សម្រាប់ការរុករករបស់ខ្ញុំនូវ AI ឆ្លាតវៃទំនើបជាលទ្ធភាព សូមមើល ការគ្របដណ្តប់នៅទីនេះ).

ចូរយើងរក្សាអ្វីៗឱ្យកាន់តែជ្រៅនៅលើផែនដី ហើយពិចារណាអំពី AI ដែលមិនងាយយល់នាពេលបច្ចុប្បន្ននេះ។

ត្រូវដឹងថា AI នាពេលបច្ចុប្បន្ននេះ មិនអាច "គិត" តាមរបៀបណាមួយបានដូចការគិតរបស់មនុស្សនោះទេ។ នៅពេលអ្នកប្រាស្រ័យទាក់ទងជាមួយ Alexa ឬ Siri សមត្ថភាពសន្ទនាអាចហាក់ដូចជាស្រដៀងនឹងសមត្ថភាពរបស់មនុស្ស ប៉ុន្តែការពិតគឺថាវាមានលក្ខណៈគណនា និងខ្វះការយល់ដឹងរបស់មនុស្ស។ យុគសម័យចុងក្រោយបង្អស់របស់ AI បានប្រើប្រាស់យ៉ាងទូលំទូលាយនូវ Machine Learning (ML) និង Deep Learning (DL) ដែលមានឥទ្ធិពលលើការផ្គូផ្គងលំនាំគណនា។ នេះបាននាំឱ្យមានប្រព័ន្ធ AI ដែលមានរូបរាងដូចមនុស្ស។ ទន្ទឹមនឹងនេះដែរ សព្វថ្ងៃនេះមិនមាន AI ណាមួយដែលមានលក្ខណៈសមហេតុសមផលទេ ហើយក៏មិនមានការងឿងឆ្ងល់នៃការយល់ដឹងនៃការគិតដ៏រឹងមាំរបស់មនុស្សដែរ។

ML/DL គឺជាទម្រង់នៃការផ្គូផ្គងលំនាំគណនា។ វិធីសាស្រ្តធម្មតាគឺអ្នកប្រមូលផ្តុំទិន្នន័យអំពីកិច្ចការធ្វើការសម្រេចចិត្ត។ អ្នកបញ្ចូលទិន្នន័យទៅក្នុងម៉ូដែលកុំព្យូទ័រ ML/DL ។ គំរូទាំងនោះស្វែងរកលំនាំគណិតវិទ្យា។ បន្ទាប់ពីស្វែងរកគំរូបែបនេះ ប្រសិនបើរកឃើញនោះ ប្រព័ន្ធ AI នឹងប្រើលំនាំទាំងនោះនៅពេលជួបទិន្នន័យថ្មី។ នៅពេលបង្ហាញទិន្នន័យថ្មី គំរូដែលផ្អែកលើ "ទិន្នន័យចាស់" ឬទិន្នន័យប្រវត្តិសាស្រ្តត្រូវបានអនុវត្តដើម្បីបង្ហាញការសម្រេចចិត្តបច្ចុប្បន្ន។

ខ្ញុំ​គិត​ថា​អ្នក​អាច​ទាយ​ថា​តើ​នេះ​កំពុង​ទៅ​ណា​។ ប្រសិនបើ​មនុស្ស​ដែល​បាន​បង្កើត​គំរូ​តាម​ការ​សម្រេច​ចិត្ត​បាន​រួម​បញ្ចូល​ការ​លំអៀង​ដែល​មិន​ឆ្អែតឆ្អន់ នោះ​ការ​ខុសឆ្គង​គឺ​ថា​ទិន្នន័យ​បាន​ឆ្លុះ​បញ្ចាំង​ពី​ចំណុច​នេះ​តាម​វិធី​ស្រាលៗ ប៉ុន្តែ​សំខាន់។ ការ​ផ្គូផ្គង​គំរូ​ការ​សិក្សា​តាម​ម៉ាស៊ីន ឬ​ការ​រៀន​ជ្រៅ​នឹង​ព្យាយាម​ធ្វើ​ត្រាប់តាម​ទិន្នន័យ​តាម​គណិតវិទ្យា។ មិន​មាន​ភាព​ដូច​គ្នា​នៃ​សុភវិនិច្ឆ័យ ឬ​ទិដ្ឋភាព​មនោសញ្ចេតនា​ផ្សេង​ទៀត​នៃ​ការ​បង្កើត​គំរូ​ដែល​បង្កើត​ដោយ AI ក្នុង​មួយ។

ជាងនេះទៅទៀត អ្នកអភិវឌ្ឍន៍ AI ប្រហែលជាមិនដឹងពីអ្វីដែលកំពុងកើតឡើងនោះទេ។ គណិតវិទ្យា arcane នៅក្នុង ML/DL អាចធ្វើឱ្យវាពិបាកក្នុងការបំបាត់ភាពលំអៀងដែលលាក់នៅពេលនេះ។ អ្នកនឹងសង្ឃឹមយ៉ាងត្រឹមត្រូវ ហើយរំពឹងថាអ្នកអភិវឌ្ឍន៍ AI នឹងសាកល្បងសម្រាប់ភាពលំអៀងដែលអាចកប់បាន ទោះបីជាវាពិបាកជាងវាក៏ដោយ។ ឱកាសដ៏រឹងមាំមួយមានដែលថា ទោះបីជាមានការធ្វើតេស្តយ៉ាងទូលំទូលាយថានឹងមានភាពលំអៀងនៅតែបង្កប់នៅក្នុងគំរូដែលត្រូវគ្នានឹងគំរូនៃ ML/DL ក៏ដោយ។

អ្នក​អាច​ប្រើ​សុភាសិត​ដ៏​ល្បី​ឬ​មិន​ល្អ​ខ្លះ​នៃ​ការ​ចោល​សំរាម​ក្នុង​ធុង​សំរាម។ រឿងនោះគឺថា នេះគឺស្រដៀងទៅនឹងភាពលំអៀងដែលបញ្ចូលទៅក្នុង insidiously ដូចជាភាពលំអៀងដែលលិចចូលទៅក្នុង AI ។ ក្បួនដោះស្រាយការសម្រេចចិត្ត (ADM) នៃ AI axiomatically ក្លាយជាបន្ទុកដោយភាពមិនស្មើគ្នា។

មិនល្អ។

តើមានអ្វីទៀតដែលអាចធ្វើបានសម្រាប់ទាំងអស់នេះ?

ចូរយើងត្រលប់ទៅបញ្ជីដែលបានដាក់ពីមុននៃវិធីព្យាយាម និងទប់ទល់នឹងភាពលំអៀង AI ឬ AI ពុល ដោយប្រើវិធីសាស្រ្ត "វាត្រូវការមួយដើម្បីដឹងមួយ" ដែលមិនធម្មតាបន្តិច។ សូមចាំថា បញ្ជីមានចំណុចសំខាន់ៗទាំងនេះ៖

  • រៀបចំសំណុំទិន្នន័យដែលមានចេតនាលំអៀង និងទិន្នន័យពុលទាំងស្រុង ដែលអាចត្រូវបានប្រើសម្រាប់ការបណ្តុះបណ្តាល AI ទាក់ទងនឹងអ្វីដែលមិនគួរធ្វើ និង/ឬអ្វីដែលត្រូវមើល
  • ប្រើសំណុំទិន្នន័យបែបនេះដើម្បីបណ្តុះបណ្តាល Machine Learning (ML) និង Deep Learning (DL) model អំពីការរកឃើញភាពលំអៀង និងស្វែងរកគំរូគណនាដែលទាក់ទងនឹងការបំពុលសង្គម
  • អនុវត្តសារធាតុពុលដែលបានបណ្តុះបណ្តាល ML/DL ឆ្ពោះទៅរក AI ផ្សេងទៀត ដើម្បីបញ្ជាក់ថាតើ AI គោលដៅមានសក្តានុពលមានភាពលំអៀង និងពុលដែរឬទេ
  • ធ្វើឱ្យមានជាតិពុលដែលបានទទួលការបណ្តុះបណ្តាល ML/DL ដើម្បីបង្ហាញដល់អ្នកបង្កើត AI នូវអ្វីដែលត្រូវប្រុងប្រយ័ត្ន ដូច្នេះពួកគេអាចពិនិត្យមើលគំរូបានយ៉ាងងាយស្រួល ដើម្បីមើលថាតើភាពលំអៀងដែលត្រូវបានបង្កប់ដោយក្បួនដោះស្រាយកើតឡើងយ៉ាងដូចម្តេច។
  • ធ្វើជាគំរូពីគ្រោះថ្នាក់នៃសារធាតុពុល AI ដែលជាផ្នែកមួយនៃក្រមសីលធម៌ AI និងការយល់ដឹងអំពីសីលធម៌ AI ទាំងអស់បានប្រាប់តាមរយៈគំរូ AI ពីកុមារពីបញ្ហានេះ
  • ផ្សេងទៀត

យើង​នឹង​ពិនិត្យ​មើល​ឲ្យ​បាន​ដិត​ដល់​ជា​ដំបូង​នៃ​ចំណុច​សំខាន់​ទាំង​នោះ។

ការបង្កើតសំណុំទិន្នន័យនៃទិន្នន័យពុល

ឧទាហរណ៍ជាក់ស្តែងនៃការព្យាយាមបង្កើតសំណុំទិន្នន័យដែលមានភាពលំអៀងក្នុងសង្គមដែលមិនចូលចិត្តគឺជាសំណុំទិន្នន័យ CivilComments នៃការប្រមូលដែលបានរៀបចំដោយ WILDS ។

ទីមួយផ្ទៃខាងក្រោយរហ័សមួយចំនួន។

WILDS គឺជាការប្រមូលប្រភពបើកចំហនៃសំណុំទិន្នន័យដែលអាចត្រូវបានប្រើសម្រាប់ការបណ្តុះបណ្តាល ML/DL ។ គោលបំណងដែលបានបញ្ជាក់ចម្បងសម្រាប់ WILDS គឺថាវាអនុញ្ញាតឱ្យអ្នកអភិវឌ្ឍន៍ AI មានលទ្ធភាពចូលប្រើប្រាស់ទិន្នន័យដែលតំណាងឱ្យរួចរាល់ ការផ្លាស់ប្តូរការចែកចាយ នៅក្នុងដែនជាក់លាក់ផ្សេងៗ។ ដែនមួយចំនួនដែលអាចប្រើបាននាពេលបច្ចុប្បន្ននេះ រួមមានតំបន់ដូចជាប្រភេទសត្វ ដុំសាច់ក្នុងជាលិការរស់នៅ ដង់ស៊ីតេក្បាលស្រូវសាលី និងដែនផ្សេងទៀតដូចជា មតិស៊ីវិល ដែលខ្ញុំនឹងរៀបរាប់នាពេលបន្តិចទៀតនេះ។

ការដោះស្រាយការផ្លាស់ប្តូរការចែកចាយគឺជាផ្នែកសំខាន់នៃការបង្កើតប្រព័ន្ធ AI ML/DL ឱ្យបានត្រឹមត្រូវ។ នេះគឺជាកិច្ចព្រមព្រៀង។ ពេលខ្លះទិន្នន័យដែលអ្នកប្រើសម្រាប់ការបណ្តុះបណ្តាលប្រែជាខុសពីការធ្វើតេស្ត ឬទិន្នន័យ "នៅក្នុងព្រៃ" ហើយដូច្នេះ ML/DL ដែលបានទទួលការបណ្តុះបណ្តាលសន្មត់របស់អ្នកនឹងរសាត់ទៅអ្វីដែលពិភពពិតនឹងទៅជាយ៉ាងណា។ អ្នកបង្កើត AI ដ៏ឆ្លាតវៃគួរតែបណ្តុះបណ្តាល ML/DL របស់ពួកគេដើម្បីទប់ទល់នឹងការផ្លាស់ប្តូរការចែកចាយបែបនេះ។ នេះគួរតែត្រូវធ្វើជាមុន ហើយមិនមែនជារឿងគួរឱ្យភ្ញាក់ផ្អើលនោះទេ ដែលនៅពេលក្រោយទាមទារឱ្យមានការកែប្រែឡើងវិញនូវ ML/DL ក្នុងមួយវគ្គ។

ដូចដែលបានពន្យល់នៅក្នុងក្រដាសដែលបានណែនាំ WILDS: "ការផ្លាស់ប្តូរការចែកចាយ — ដែលជាកន្លែងដែលការចែកចាយការបណ្តុះបណ្តាលខុសពីការចែកចាយការធ្វើតេស្ត — អាចបន្ទាបបន្ថោកយ៉ាងខ្លាំងនូវភាពត្រឹមត្រូវនៃប្រព័ន្ធរៀនម៉ាស៊ីន (ML) ដែលត្រូវបានដាក់ឱ្យប្រើប្រាស់នៅក្នុងព្រៃ។ ទោះបីជាមានភាពទូលំទូលាយរបស់ពួកគេនៅក្នុងការដាក់ឱ្យប្រើប្រាស់ក្នុងពិភពពិតក៏ដោយ ការផ្លាស់ប្តូរការចែកចាយទាំងនេះគឺស្ថិតនៅក្រោមតំណាងនៅក្នុងសំណុំទិន្នន័យដែលត្រូវបានប្រើប្រាស់យ៉ាងទូលំទូលាយនៅក្នុងសហគមន៍ ML សព្វថ្ងៃនេះ។ ដើម្បីដោះស្រាយគម្លាតនេះ យើងធ្វើបទបង្ហាញអំពី WILDS ដែលជាគំរូកំណត់នៃសំណុំទិន្នន័យចំនួន 10 ដែលឆ្លុះបញ្ចាំងពីការផ្លាស់ប្តូរការចែកចាយចម្រុះដែលកើតឡើងដោយធម្មជាតិនៅក្នុងកម្មវិធីជាក់ស្តែង ដូចជាការផ្លាស់ប្តូរនៅទូទាំងមន្ទីរពេទ្យសម្រាប់ការកំណត់អត្តសញ្ញាណដុំសាច់។ ឆ្លងកាត់អន្ទាក់កាមេរ៉ាសម្រាប់ការត្រួតពិនិត្យសត្វព្រៃ; និងឆ្លងកាត់ពេលវេលា និងទីតាំងនៅក្នុងរូបភាពផ្កាយរណប និងការគូសផែនទីភាពក្រីក្រ” (នៅក្នុងក្រដាសដែលមានចំណងជើងថា “WILDS: A Benchmark of in the Wild Distribution Shifts” ដោយ Pang Wei Koh, Shiori Sagawa, Henrik Marklund, Sang Xie, Marvin Zhang, Ashay Balsubramani , Weihua Hu និងអ្នកដទៃ) ។

ចំនួននៃសំណុំទិន្នន័យ WILDS បែបនេះនៅតែបន្តកើនឡើង ហើយជាទូទៅលក្ខណៈនៃសំណុំទិន្នន័យកំពុងត្រូវបានពង្រឹងដើម្បីបង្កើនតម្លៃនៃការប្រើប្រាស់ទិន្នន័យសម្រាប់ការបណ្តុះបណ្តាល ML/DL ។

សំណុំទិន្នន័យ CivilComments ត្រូវបានពិពណ៌នាតាមវិធីនេះ៖ “ការពិនិត្យឡើងវិញដោយស្វ័យប្រវត្តិនៃអត្ថបទដែលបង្កើតដោយអ្នកប្រើប្រាស់—ឧទាហរណ៍ ការរកឃើញមតិយោបល់ដែលមានជាតិពុល—គឺជាឧបករណ៍សំខាន់សម្រាប់សម្របសម្រួលបរិមាណនៃអត្ថបទដែលសរសេរនៅលើអ៊ីនធឺណិត។ ជាអកុសល ការងារពីមុនបានបង្ហាញថាអ្នកចាត់ថ្នាក់ការពុលបែបនេះទទួលបានភាពលំអៀងនៅក្នុងទិន្នន័យបណ្តុះបណ្តាល និងភ្ជាប់ការពុលយ៉ាងជិតស្និទ្ធជាមួយនឹងការលើកឡើងអំពីប្រជាសាស្រ្តមួយចំនួន។ ប្រភេទនៃការជាប់ទាក់ទងគ្នាដ៏ឈ្លាសវៃទាំងនេះអាចបង្ខូចការអនុវត្តគំរូយ៉ាងសំខាន់លើចំនួនប្រជាជនរងជាក់លាក់។ យើងសិក្សាបញ្ហានេះតាមរយៈវ៉ារ្យ៉ង់ដែលបានកែប្រែនៃសំណុំទិន្នន័យ CivilComments” (ដូចដែលបានបង្ហោះនៅលើគេហទំព័រ WILDS)។

ពិចារណាពីភាពខុសឆ្គងនៃការបង្ហោះតាមអ៊ីនធឺណិត។

អ្នកពិតជាបានជួបប្រទះនឹងការអត្ថាធិប្បាយពុលនៅពេលប្រើប្រាស់ប្រព័ន្ធផ្សព្វផ្សាយសង្គមស្ទើរតែគ្រប់ប្រភេទ។ វាហាក់ដូចជាស្ទើរតែមិនអាចទៅរួចទេសម្រាប់អ្នកក្នុងការជៀសវាងដោយវេទមន្តដើម្បីមើលឃើញខ្លឹមសារដ៏អាក្រក់ និងអសុរោះ ដែលហាក់ដូចជារីករាលដាលសព្វថ្ងៃនេះ។ ពេលខ្លះ សម្ភារៈអសុរោះគឺមានភាពស្រទន់ ហើយប្រហែលជាអ្នកត្រូវអានរវាងបន្ទាត់ ដើម្បីទទួលបានខ្លឹមសារ ឬអត្ថន័យដែលលំអៀង ឬរើសអើង។ នៅក្នុងករណីផ្សេងទៀត ពាក្យនេះគឺមានជាតិពុលយ៉ាងធ្ងន់ធ្ងរ ហើយអ្នកមិនត្រូវការមីក្រូទស្សន៍ ឬឧបករណ៍ឌិកូដពិសេសដើម្បីស្វែងយល់ថាតើវគ្គនេះមានអត្ថន័យអ្វីនោះទេ។

CivilComments គឺជាសំណុំទិន្នន័យដែលត្រូវបានដាក់បញ្ចូលគ្នាដើម្បីសាកល្បង និងបង្កើត AI ML/DL ដែលអាចគណនាបាននូវមាតិកាពុល។ នេះជាអ្វីដែលអ្នកស្រាវជ្រាវដែលផ្តោតលើកិច្ចខិតខំប្រឹងប្រែងផ្តោតលើ៖ "ភាពលំអៀងដោយអចេតនានៅក្នុង Machine Learning អាចបង្ហាញឱ្យឃើញពីភាពខុសគ្នាជាប្រព័ន្ធក្នុងការអនុវត្តសម្រាប់ក្រុមប្រជាសាស្ត្រផ្សេងៗគ្នា ដែលអាចធ្វើឱ្យមានការប្រកួតប្រជែងដែលមានស្រាប់ទៅនឹងភាពយុត្តិធម៌នៅក្នុងសង្គមទាំងមូល។ នៅក្នុងអត្ថបទនេះ យើងណែនាំឈុតនៃសូចនាករកម្រិតចាប់ផ្ដើមដែលផ្តល់នូវទិដ្ឋភាពមិនច្បាស់លាស់នៃការលំអៀងដោយអចេតនានេះ ដោយពិចារណាលើវិធីផ្សេងៗដែលការបែងចែកពិន្ទុរបស់អ្នកចាត់ថ្នាក់អាចប្រែប្រួលតាមក្រុមដែលបានកំណត់។ យើងក៏ណែនាំផងដែរនូវសំណុំសាកល្បងថ្មីដ៏ធំមួយនៃមតិយោបល់លើអ៊ីនធឺណិតជាមួយនឹងចំណារពន្យល់ដែលមានប្រភពពីហ្វូងមនុស្សសម្រាប់ឯកសារយោងអត្តសញ្ញាណ។ យើងប្រើវាដើម្បីបង្ហាញពីរបៀបដែលរង្វាស់របស់យើងអាចប្រើដើម្បីស្វែងរកភាពលំអៀងដែលមិនមានចេតនាថ្មី និងមានសក្តានុពលនៅក្នុងគំរូសាធារណៈដែលមានស្រាប់" (នៅក្នុងក្រដាសដែលមានចំណងជើងថា "Metrics Nuanced For Measuring Unintended Bias With Real Data for Test Class" ដោយ Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman)។

ប្រសិនបើអ្នកផ្តល់បញ្ហានេះឱ្យមានការគិតពិចារណាយ៉ាងទូលំទូលាយ អ្នកប្រហែលជាចាប់ផ្តើមឆ្ងល់ថាតើនៅក្នុងពិភពលោកនេះអ្នកអាចយល់បានដោយរបៀបណាថាអ្វីដែលជាអត្ថាធិប្បាយពុលធៀបនឹងអ្វីដែលមិនមែនជាអត្ថាធិប្បាយពុល។ មនុស្សអាចខុសគ្នាយ៉ាងខ្លាំងចំពោះអ្វីដែលពួកគេបកស្រាយថាជាពាក្យពុលទាំងស្រុង។ មនុស្ស​ម្នាក់​អាច​នឹង​ខឹងសម្បារ​ចំពោះ​ការ​លើក​ឡើង​ឬ​ការ​អធិប្បាយ​តាម​អ៊ីនធឺណិត​ជាក់លាក់​មួយ​ដែល​ត្រូវ​បាន​បង្ហោះ​លើ​ប្រព័ន្ធ​ផ្សព្វផ្សាយ​សង្គម ខណៈ​អ្នក​ផ្សេង​ប្រហែល​ជា​មិន​ត្រូវ​បាន​គេ​ញុះញង់​ទាល់​តែ​សោះ។ ការ​ប្រកែក​ជា​ញឹក​ញាប់​ថា សញ្ញាណ​នៃ​សេចក្តី​អធិប្បាយ​ពុល​ជា​សិក្ខាបទ​មិន​ច្បាស់លាស់​ទាំង​ស្រុង។ វាប្រៀបដូចជាសិល្បៈ ដែលសិល្បៈត្រូវបាននិយាយតាមទម្លាប់ថា យល់តែក្នុងភ្នែកអ្នកមើលប៉ុណ្ណោះ ហើយដូចគ្នានេះដែរ ការលើកឡើងដោយលំអៀង ឬពិសពុល ក៏មានតែក្នុងភ្នែកអ្នកមើលដែរ។

Balderdash, តបតខ្លះ។ នរណាម្នាក់ដែលមានគំនិតសមហេតុសមផលអាចសន្និដ្ឋានថាតើការកត់សម្គាល់តាមអ៊ីនធឺណិតគឺពុលឬអត់។ អ្នកមិនចាំបាច់ធ្វើជាអ្នកវិទ្យាសាស្ត្ររ៉ុក្កែត ដើម្បីដឹងទេថានៅពេលដែលការប្រមាថដ៏កាចសាហាវមួយចំនួនដែលត្រូវបានបង្ហោះនោះពោរពេញទៅដោយភាពលំអៀង និងការស្អប់ខ្ពើម។

ជាការពិតណាស់ សង្គមកាន់តែផ្លាស់ប្តូរ និងផ្លាស់ប្តូរទៅតាមពេលវេលា។ អ្វី​ដែល​មិន​ត្រូវ​បាន​គេ​យល់​ឃើញ​ថា​ជា​ការ​ប្រមាថ​ពី​មួយ​រយៈ​មុន​អាច​ត្រូវ​បាន​គេ​មើល​ឃើញ​ថា​ជា​ការ​ខុស​ឆ្គង​យ៉ាង​ខ្លាំង​នៅ​ថ្ងៃ​នេះ។ លើសពីនេះ អ្វីដែលបាននិយាយកាលពីឆ្នាំមុន ដែលធ្លាប់ត្រូវបានគេមើលឃើញថាមានភាពលំអៀងហួសហេតុ អាចត្រូវបានបកស្រាយឡើងវិញនៅក្នុងពន្លឺនៃការផ្លាស់ប្តូរអត្ថន័យ។ ទន្ទឹមនឹងនោះ អ្នកផ្សេងទៀតអះអាងថា ការអត្ថាធិប្បាយពុលគឺតែងតែពុល មិនថាពេលណាវាត្រូវបានផ្សព្វផ្សាយដំបូងឡើយ។ វា​អាច​ត្រូវ​បាន​គេ​អះអាង​ថា ការ​ពុល​មិន​ទាក់ទង​គ្នា​ទេ ប៉ុន្តែ​វា​ជា​ដាច់ខាត។

បញ្ហា​នៃ​ការ​ព្យាយាម​បង្កើត​នូវ​អ្វី​ដែល​ពុល​អាច​ជា​បញ្ហា​ដ៏​ពិបាក​មួយ​។ យើងអាចកាត់បន្ថយទ្វេដងលើបញ្ហាដ៏លំបាកនេះ ដូចជាការព្យាយាមបង្កើត algorithms ឬ AI ដែលអាចបញ្ជាក់បានថាមួយណា។ ប្រសិនបើមនុស្សមានការលំបាកក្នុងការធ្វើការវាយតម្លៃបែបនេះ ការសរសេរកម្មវិធីកុំព្យូទ័រទំនងជាមានបញ្ហាដូចគ្នា ឬច្រើនជាងនេះ អ្នកខ្លះនិយាយថា។

វិធីសាស្រ្តមួយក្នុងការរៀបចំសំណុំទិន្នន័យដែលមានខ្លឹមសារពុល ពាក់ព័ន្ធនឹងការប្រើប្រាស់វិធីសាស្រ្តនៃប្រភពហ្វូងដើម្បីវាយតម្លៃ ឬវាយតម្លៃខ្លឹមសារ ergo ផ្តល់នូវមធ្យោបាយផ្អែកលើមនុស្សក្នុងការកំណត់នូវអ្វីដែលត្រូវបានគេចាត់ទុកថាមិនសមរម្យ និងរួមទាំងការដាក់ស្លាកនៅក្នុងសំណុំទិន្នន័យខ្លួនឯង។ បន្ទាប់មក AI ML/DL អាចពិនិត្យមើលទិន្នន័យ និងស្លាកសញ្ញាដែលពាក់ព័ន្ធដែលត្រូវបានចង្អុលបង្ហាញដោយអ្នកវាយតម្លៃមនុស្ស។ នេះ​ជា​វេន​អាច​បម្រើ​ជា​មធ្យោបាយ​ក្នុង​ការ​ស្វែងរក​លំនាំ​គណិតវិទ្យា​ដែល​មាន​មូលដ្ឋាន​ក្នុង​ការ​គណនា។ Voila, ML/DL បន្ទាប់មកប្រហែលជាអាចគិតទុកជាមុន ឬវាយតម្លៃតាមការគណនាថាតើមតិយោបល់ដែលបានផ្តល់ឱ្យទំនងជាពុលឬអត់។

ដូចដែលបានរៀបរាប់នៅក្នុងក្រដាសដែលបានលើកឡើងនៅលើមាត្រដ្ឋានមិនច្បាស់លាស់៖ "ការដាក់ស្លាកនេះស្នើឱ្យអ្នកវាយតម្លៃវាយតម្លៃការពុលនៃមតិយោបល់ ដោយជ្រើសរើសពី 'ពុលខ្លាំង' 'ពុល' 'ពិបាកនិយាយ' និង 'មិនពុល'។ អ្នកវាយតម្លៃក៏ត្រូវបានសួរផងដែរអំពីប្រភេទរងមួយចំនួននៃការពុល ទោះបីជាស្លាកទាំងនេះមិនត្រូវបានប្រើសម្រាប់ការវិភាគនៅក្នុងការងារនេះក៏ដោយ។ ដោយប្រើបច្ចេកទេសវាយតម្លៃទាំងនេះ យើងបានបង្កើតសំណុំទិន្នន័យចំនួន 1.8 លានមតិ ដែលមានប្រភពមកពីវេទិកាមតិយោបល់លើអ៊ីនធឺណិត ដែលមានស្លាកសម្រាប់ជាតិពុល និងអត្តសញ្ញាណ។ ខណៈពេលដែលមតិយោបល់ទាំងអស់ត្រូវបានដាក់ស្លាកសម្រាប់ការពុល ហើយបណ្តុំនៃមតិយោបល់ចំនួន 450,000 ត្រូវបានដាក់ស្លាកសម្រាប់អត្តសញ្ញាណ។ មតិយោបល់មួយចំនួនដែលដាក់ស្លាកសម្រាប់អត្តសញ្ញាណត្រូវបានជ្រើសរើសជាមុនដោយប្រើគំរូដែលបានបង្កើតឡើងពីការធ្វើផ្លាកសញ្ញាអត្តសញ្ញាណពីមុន ដើម្បីធានាថាអ្នកវាយតម្លៃហ្វូងមនុស្សនឹងឃើញខ្លឹមសារអត្តសញ្ញាណជាញឹកញាប់” (នៅក្នុងអត្ថបទដកស្រង់ដោយ Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman)។

ឧទាហរណ៍មួយទៀតនៃគោលបំណងចង់មានសំណុំទិន្នន័យដែលមានខ្លឹមសារពុលដែលបង្ហាញពីការប្រឹងប្រែងពាក់ព័ន្ធនឹងការបណ្តុះបណ្តាលប្រព័ន្ធអន្តរកម្មការសន្ទនាដែលផ្អែកលើ AI-based Natural Language Processing (NLP) ។ អ្នកប្រហែលជាបានធ្វើអន្តរកម្មជាមួយប្រព័ន្ធ NLP ដូចជា Alexa និង Siri ។ ខ្ញុំបានគ្របដណ្តប់លើការលំបាក និងដែនកំណត់មួយចំនួននៃ NLP នាពេលបច្ចុប្បន្ននេះ រួមទាំងឧទាហរណ៍ដ៏គួរឱ្យរំខានមួយដែលបានកើតឡើងនៅពេលដែល Alexa បានផ្តល់ដំបូន្មានដែលមិនសមស្រប និងគ្រោះថ្នាក់ដល់កុមារ សូមមើល តំណភ្ជាប់នៅទីនេះ.

ការសិក្សានាពេលថ្មីៗនេះបានស្វែងរកការប្រើប្រាស់ប្រភេទចំនួនប្រាំបួននៃភាពលំអៀងសង្គមដែលជាទូទៅផ្អែកលើបញ្ជី EEOC (Equal Employment Opportunities Commission) នៃលក្ខណៈប្រជាសាស្រ្តដែលត្រូវបានការពារ រួមទាំងអាយុ ភេទ សញ្ជាតិ រូបរាងរាងកាយ ពូជសាសន៍ ឬជាតិសាសន៍ សាសនា ស្ថានភាពពិការភាព ផ្លូវភេទ។ ការតំរង់ទិស និងស្ថានភាពសេដ្ឋកិច្ចសង្គម។ យោងទៅតាមអ្នកស្រាវជ្រាវ៖ "វាត្រូវបានចងក្រងជាឯកសារយ៉ាងល្អដែលគំរូ NLP រៀនពីភាពលំអៀងក្នុងសង្គម ប៉ុន្តែការងារតិចតួចត្រូវបានធ្វើឡើងអំពីរបៀបដែលភាពលំអៀងទាំងនេះបង្ហាញនៅក្នុងលទ្ធផលគំរូសម្រាប់កិច្ចការដែលបានអនុវត្ត ដូចជាការឆ្លើយសំណួរ (QA)។ យើងណែនាំ Bias Benchmark សម្រាប់ QA (BBQ) ដែលជាសំណុំទិន្នន័យនៃសំណុំសំណួរដែលបង្កើតឡើងដោយអ្នកនិពន្ធដែលបញ្ជាក់ពីភាពលំអៀងក្នុងសង្គមប្រឆាំងនឹងមនុស្សដែលជាកម្មសិទ្ធិរបស់ថ្នាក់ការពារតាមវិមាត្រសង្គមចំនួនប្រាំបួនដែលពាក់ព័ន្ធសម្រាប់បរិបទដែលនិយាយភាសាអង់គ្លេសនៅសហរដ្ឋអាមេរិក” (ក្នុងក្រដាសដែលមានចំណងជើងថា “BBQ ៖ ស្តង់ដារដែលបង្កើតដោយដៃសម្រាប់ឆ្លើយសំណួរ” ដោយ Alicia Parrish, Angelica Chen, Nikita Nangia, Vishakh Padmakumar, Jason Phang, Jana Thompson, Phu Mon Htut, Samuel R. Bowman)។

ការបង្កើតសំណុំទិន្នន័យដែលមានចេតនាលំអៀង និងទិន្នន័យពុលទាំងស្រុងគឺជានិន្នាការកើនឡើងនៅក្នុង AI ហើយត្រូវបានទាក់ទាញជាពិសេសដោយការមកដល់នៃក្រមសីលធម៌ AI និងបំណងប្រាថ្នាក្នុងការផលិត Ethical AI ។ សំណុំទិន្នន័យទាំងនោះអាចត្រូវបានប្រើដើម្បីបណ្តុះបណ្តាលគំរូ Machine Learning (ML) និង Deep Learning (DL) សម្រាប់ការរកឃើញភាពលំអៀង និងស្វែងរកគំរូគណនាដែលពាក់ព័ន្ធនឹងការបំពុលសង្គម។ នៅក្នុងវេន ការពុលដែលត្រូវបានបណ្តុះបណ្តាល ML/DL អាចត្រូវបានកំណត់ដោយយុត្តិធម៌ចំពោះ AI ផ្សេងទៀតដើម្បីបញ្ជាក់ថាតើ AI គោលដៅមានសក្តានុពលមានភាពលំអៀង និងពុលដែរឬទេ។

លើសពីនេះ ប្រព័ន្ធ ML/DL ដែលត្រូវបានបណ្តុះបណ្តាលដោយជាតិពុលដែលអាចប្រើប្រាស់បាន អាចត្រូវបានប្រើដើម្បីបង្ហាញដល់អ្នកបង្កើត AI នូវអ្វីដែលត្រូវប្រុងប្រយ័ត្ន ដូច្នេះពួកគេអាចពិនិត្យមើលគំរូបានយ៉ាងងាយស្រួល ដើម្បីមើលពីរបៀបដែលភាពលំអៀងដែលបង្កប់ដោយក្បួនដោះស្រាយកើតឡើង។ សរុបមក កិច្ចខិតខំប្រឹងប្រែងទាំងនេះអាចបង្ហាញជាឧទាហរណ៍ពីគ្រោះថ្នាក់នៃសារធាតុពុល AI ដែលជាផ្នែកមួយនៃក្រមសីលធម៌ AI និងការយល់ដឹងអំពីសីលធម៌ AI ដែលត្រូវបានប្រាប់ទាំងអស់។

នៅចំនុចប្រសព្វនៃការពិភាក្សាដ៏មានទម្ងន់នេះ ខ្ញុំចង់ភ្នាល់ថា អ្នកពិតជាចង់បានឧទាហរណ៍មួយចំនួនបន្ថែមទៀតដែលអាចបង្ហាញពីប្រធានបទនេះ។ មានគំរូដ៏ពេញនិយមពិសេស និងប្រាកដប្រជាដែលនៅជិតបេះដូងខ្ញុំ។ អ្នកឃើញហើយ ក្នុងសមត្ថភាពរបស់ខ្ញុំក្នុងនាមជាអ្នកជំនាញលើ AI រួមទាំងផលប៉ះពាល់ខាងសីលធម៌ និងផ្នែកច្បាប់ ខ្ញុំត្រូវបានគេសួរជាញឹកញាប់ឱ្យកំណត់ឧទាហរណ៍ជាក់ស្តែងដែលបង្ហាញពីភាពលំបាកនៃក្រមសីលធម៌ AI ដូច្នេះ លក្ខណៈទ្រឹស្តីខ្លះនៃប្រធានបទអាចយល់បានកាន់តែងាយស្រួល។ ផ្នែកមួយដែលរំជើបរំជួលបំផុតដែលបង្ហាញឱ្យឃើញច្បាស់អំពីក្រមសីលធម៌ AI នេះគឺការមកដល់នៃរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដដែលមានមូលដ្ឋានលើ AI ។ វានឹងបម្រើជាករណីប្រើប្រាស់ងាយស្រួល ឬជាឧទាហរណ៍សម្រាប់ការពិភាក្សាយ៉ាងទូលំទូលាយលើប្រធានបទ។

ខាងក្រោមនេះជាសំណួរដែលគួរអោយចាប់អារម្មណ៍ដែលគួរពិចារណា៖ តើការមកដល់នៃរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដដែលមានមូលដ្ឋានលើ AI បំភ្លឺអ្វីអំពីឧបករណ៍ប្រើប្រាស់នៃការមានសំណុំទិន្នន័យដើម្បីបង្កើតសារធាតុពុល AI ហើយប្រសិនបើដូច្នេះ តើនេះបង្ហាញអ្វីខ្លះ?

ទុកពេលឱ្យខ្ញុំមួយភ្លែតដើម្បីស្រាយសំណួរ។

ជាដំបូង សូមចំណាំថា មិនមានអ្នកបើកបរមនុស្សពាក់ព័ន្ធនឹងរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដនោះទេ។ សូមចងចាំថារថយន្តដែលបើកបរដោយខ្លួនឯងពិតប្រាកដគឺត្រូវបានជំរុញតាមរយៈប្រព័ន្ធបើកបរ AI ។ មិន​ចាំបាច់​មាន​អ្នក​បើក​បរ​មនុស្ស​នៅ​កង់​នោះ​ទេ ហើយ​ក៏​មិន​មាន​ការ​ផ្តល់​ឲ្យ​មនុស្ស​ដើម្បី​បើក​រថយន្ត​ដែរ។ សម្រាប់ការគ្របដណ្តប់យ៉ាងទូលំទូលាយ និងបន្តរបស់ខ្ញុំនៃយានយន្តស្វយ័ត (AVs) និងជាពិសេសរថយន្តដែលបើកបរដោយខ្លួនឯង សូមមើល តំណភ្ជាប់នៅទីនេះ.

ខ្ញុំចង់បញ្ជាក់បន្ថែមទៀតថាតើវាមានន័យយ៉ាងម៉េចនៅពេលខ្ញុំនិយាយអំពីឡានបើកបរដោយខ្លួនឯង។

ស្វែងយល់ពីកម្រិតនៃរថយន្តបើកបរដោយខ្លួនឯង

ក្នុងនាមជាការបញ្ជាក់មួយរថយន្តបើកបរដោយខ្លួនឯងគឺជាប្រភេទមួយដែលអាយអេសបើកបររថយន្តដោយខ្លួនឯងហើយមិនមានជំនួយពីមនុស្សទេក្នុងពេលបើកបរ។

យានជំនិះគ្មានអ្នកបើកបរទាំងនេះត្រូវបានចាត់ទុកថាជាកម្រិតទី 4 និងកម្រិត 5 (សូមមើលការពន្យល់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ) ខណៈពេលដែលរថយន្តដែលតម្រូវឱ្យអ្នកបើកបរមនុស្សរួមគ្នាចែករំលែកការប្រឹងប្រែងបើកបរជាធម្មតាត្រូវបានចាត់ទុកថានៅកម្រិត 2 ឬកម្រិត 3 ។ រថយន្តដែលរួមគ្នាចែករំលែកភារកិច្ចបើកបរត្រូវបានពិពណ៌នាថាជាពាក់កណ្តាលស្វយ័ត ហើយជាធម្មតាមានភាពខុសគ្នានៃ កម្មវិធីបន្ថែមដោយស្វ័យប្រវត្តិដែលត្រូវបានគេហៅថា ADAS (Advanced Driver-Assistance Systems)។

មិនទាន់មានរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដនៅកម្រិតទី 5 នៅឡើយទេ ហើយយើងក៏មិនទាន់ដឹងថា តើវាអាចសម្រេចបានដែរ ឬអត់នោះទេ ហើយវានឹងចំណាយពេលយូរប៉ុណ្ណាដើម្បីទៅដល់ទីនោះ។

ទន្ទឹមនឹងនេះ កិច្ចខិតខំប្រឹងប្រែងកម្រិតទី 4 កំពុងព្យាយាមបន្តិចម្តងៗ ដើម្បីទទួលបានការអូសទាញមួយចំនួន ដោយឆ្លងកាត់ការសាកល្បងផ្លូវសាធារណៈតូចចង្អៀត និងជ្រើសរើស ទោះបីជាមានភាពចម្រូងចម្រាសលើថាតើការធ្វើតេស្តនេះគួរតែត្រូវបានអនុញ្ញាតក្នុងម្នាក់ៗក៏ដោយ (យើងទាំងអស់គ្នាគឺជាជ្រូកហ្គីណេដែលមានជីវិត ឬស្លាប់នៅក្នុងការពិសោធន៍មួយ។ កើតឡើងនៅលើផ្លូវហាយវេ និងផ្លូវរបស់យើង អ្នកខ្លះឈ្លោះគ្នា សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ).

ដោយសាររថយន្តពាក់កណ្តាលស្វ័យភាពតម្រូវឱ្យមានអ្នកបើកបរជាមនុស្សការអនុម័តប្រភេទរថយន្តទាំងនោះនឹងមិនខុសពីការបើកបរយានយន្តធម្មតាទេដូច្នេះមិនមានអ្វីថ្មីទេសម្រាប់និយាយអំពីប្រធានបទនេះ (ទោះបីជាអ្នកនឹងឃើញក៏ដោយ) ក្នុងពេលតែមួយចំនុចដែលបានធ្វើជាទូទៅអាចអនុវត្តបាន) ។

ចំពោះរថយន្តពាក់កណ្តាលស្វយ័តវាជាការសំខាន់ដែលសាធារណជនត្រូវដឹងជាមុនអំពីទិដ្ឋភាពគួរឱ្យព្រួយបារម្ភដែលកំពុងកើតឡើងនាពេលថ្មីៗនេះពោលគឺទោះបីអ្នកបើកបរមនុស្សទាំងនោះនៅតែបន្តបង្ហោះវីដេអូខ្លួនពួកគេដេកលង់លក់ក្នុងកង់រថយន្តកម្រិត ២ ឬលេខ ៣ ក៏ដោយ។ យើងទាំងអស់គ្នាត្រូវចៀសវាងកុំអោយវង្វេងស្មារតីជឿថាអ្នកបើកបរអាចយកការចាប់អារម្មណ៍របស់ពួកគេចេញពីភារកិច្ចបើកបរនៅពេលបើកបររថយន្តពាក់កណ្តាលស្វយ័ត។

អ្នកគឺជាអ្នកទទួលខុសត្រូវចំពោះសកម្មភាពបើកបររបស់យានយន្តដោយមិនគិតពីចំនួនស្វ័យប្រវត្តិកម្មដែលអាចត្រូវបានបោះចូលទៅក្នុងកម្រិត ២ ឬកម្រិត ៣ ។

រថយន្ត​ដែល​បើក​បរ​ដោយ​ខ្លួន​ឯង និង​ការ​កាច់​ចង្កូត​សម្អាត​ជាតិពុល AI

សម្រាប់យានយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដកម្រិតទី ៤ និងទី ៥ នឹងមិនមានអ្នកបើកបរជាមនុស្សចូលរួមក្នុងការងារបើកបរឡើយ។

អ្នកកាន់កាប់ទាំងអស់នឹងក្លាយជាអ្នកដំណើរ។

អេអាយអេកំពុងធ្វើការបើកបរ។

ទិដ្ឋភាពមួយដែលត្រូវពិភាក្សាភ្លាមៗទាក់ទងនឹងការពិតដែលថាអេ។ អាយ។ អិ។ ពាក់ព័ន្ធនឹងប្រព័ន្ធបើកបរ AI សព្វថ្ងៃមិនងាយស្រួលទេ។ និយាយម៉្យាងទៀតអេអាយគឺទាំងអស់គ្នាជាកម្មវិធីរួមបញ្ចូលគ្នានៃកម្មវិធីនិងក្បួនដោះស្រាយដែលផ្អែកលើកុំព្យូទ័រហើយភាគច្រើនប្រាកដជាមិនអាចវែកញែកតាមរបៀបដែលមនុស្សអាចធ្វើបានឡើយ។

ហេតុអ្វីបានជាការសង្កត់ធ្ងន់បន្ថែមអំពីអេអាយមិនមានអារម្មណ៍?

ដោយសារតែខ្ញុំចង់គូសបញ្ជាក់ថានៅពេលពិភាក្សាអំពីតួនាទីរបស់ប្រព័ន្ធបើកបរ AI ខ្ញុំមិនបានបង្ហាញពីគុណសម្បត្តិរបស់មនុស្សទៅនឹង AI ទេ។ សូមមេត្តាជ្រាបថាមានទំនោរដែលកំពុងបន្តនិងមានគ្រោះថ្នាក់នាពេលបច្ចុប្បន្ននេះចំពោះមនុស្សវិទូ។ បើនិយាយអោយចំទៅមនុស្សកំពុងតែផ្តល់នូវមនោសញ្ចេតនាស្រដៀងនឹងមនុស្សទៅនឹងអេអាយអេសព្វថ្ងៃនេះទោះបីជាការពិតដែលមិនអាចប្រកែកបាននិងមិនអាចកាត់ថ្លៃបានថាពុំមាន AI បែបនេះនៅឡើយទេ។

ជាមួយនឹងការបំភ្លឺនោះអ្នកអាចស្មានថាប្រព័ន្ធបើកបរ AI នឹងមិនមាន“ ដឹង” ពីលក្ខណៈនៃការបើកបរ។ ការបើកបរនិងអ្វីទាំងអស់ដែលវាតម្រូវឱ្យមានកម្មវិធីជាផ្នែកមួយនៃផ្នែករឹងនិងផ្នែកទន់នៃឡានបើកបរដោយខ្លួនឯង។

សូមមុជចូលទៅក្នុងទិដ្ឋភាពជាច្រើនដែលបានមកលេងលើប្រធានបទនេះ។

ជាដំបូង វាជារឿងសំខាន់ដែលត្រូវដឹងថា មិនមែនរថយន្តដែលបើកបរដោយខ្លួនឯង AI ទាំងអស់សុទ្ធតែដូចគ្នានោះទេ។ ក្រុមហ៊ុនផលិតរថយន្តនីមួយៗ និងក្រុមហ៊ុនបច្ចេកវិទ្យាបើកបរដោយខ្លួនឯងកំពុងប្រើប្រាស់វិធីសាស្រ្តរបស់ខ្លួនក្នុងការរៀបចំរថយន្តដែលបើកបរដោយស្វ័យប្រវត្តិ។ ដូចនេះ វាពិបាកក្នុងការធ្វើសេចក្តីថ្លែងការណ៍ដ៏ទូលំទូលាយអំពីអ្វីដែលប្រព័ន្ធបើកបរ AI នឹងធ្វើឬមិនធ្វើ។

លើសពីនេះទៅទៀតនៅពេលណាដែលបញ្ជាក់ថាប្រព័ន្ធបើកបរអេអាយមិនធ្វើអ្វីជាក់លាក់ណាមួយនោះនៅពេលក្រោយនេះអាចត្រូវបានអ្នកអភិវឌ្developersន៍យកឈ្នះដែលតាមពិតកម្មវិធីកុំព្យូទ័រអាចធ្វើបាន។ មួយជំហានម្តង ៗ ប្រព័ន្ធបើកបរអេអាយអាយកំពុងត្រូវបានកែលម្អនិងពង្រីកបន្តិចម្តង ៗ ។ ការដាក់កំហិតដែលមានស្រាប់នៅថ្ងៃនេះប្រហែលជាលែងមាននៅក្នុងការបង្កើតឡើងវិញឬកំណែប្រព័ន្ធនាពេលអនាគត។

ខ្ញុំសង្ឃឹមថា វាផ្តល់នូវការព្រមានដ៏គ្រប់គ្រាន់មួយ ដើម្បីគូសបញ្ជាក់នូវអ្វីដែលខ្ញុំរៀបនឹងទាក់ទង។

មានសក្ដានុពលជាច្រើន ហើយថ្ងៃណាមួយទំនងជាត្រូវបានដឹងអំពីភាពលំអៀងដែលបញ្ចូលដោយ AI ដែលនឹងប្រឈមមុខនឹងការកើតឡើងនៃយានយន្តស្វយ័ត និងរថយន្តដែលបើកបរដោយខ្លួនឯង សូមមើលឧទាហរណ៍ ការពិភាក្សារបស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ និង តំណភ្ជាប់នៅទីនេះ. យើងនៅតែស្ថិតក្នុងដំណាក់កាលដំបូងនៃការដាក់ឱ្យដំណើរការរថយន្តដែលបើកបរដោយស្វ័យប្រវត្តិ។ រហូតទាល់តែការអនុម័តឈានដល់មាត្រដ្ឋាន និងលទ្ធភាពមើលឃើញគ្រប់គ្រាន់ ទិដ្ឋភាពពុល AI ភាគច្រើនដែលខ្ញុំបានព្យាករណ៍នឹងកើតឡើងនៅទីបំផុតមិនទាន់បង្ហាញឱ្យឃើញច្បាស់នៅឡើយទេ ហើយមិនទាន់ទទួលបានការចាប់អារម្មណ៍ជាសាធារណៈយ៉ាងទូលំទូលាយនៅឡើយ។

ពិចារណាលើបញ្ហាដែលទាក់ទងនឹងការបើកបរដែលហាក់បីដូចជាមិនច្បាស់លាស់ ដែលដំបូងឡើយហាក់ដូចជាគ្មានកំហុសទាំងស្រុង។ ជាពិសេស ចូរយើងពិនិត្យមើលពីរបៀបកំណត់ឱ្យបានត្រឹមត្រូវថាតើត្រូវឈប់សម្រាប់ការរង់ចាំអ្នកថ្មើរជើង "វង្វេងផ្លូវ" ដែលមិនមានសិទ្ធិឆ្លងកាត់ផ្លូវនោះទេ។

អ្នកពិតជាបានបើកបរ ហើយបានជួបប្រទះនឹងអ្នកថ្មើរជើងដែលកំពុងរង់ចាំឆ្លងផ្លូវ ហើយពួកគេមិនទាន់មានសិទ្ធិធ្វើផ្លូវនោះទេ។ នេះ​មាន​ន័យ​ថា​អ្នក​មាន​ឆន្ទានុសិទ្ធិ​ក្នុង​ការ​ថា​តើ​ត្រូវ​ឈប់​ហើយ​អនុញ្ញាត​ឱ្យ​ពួកគេ​ឆ្លង​កាត់។ អ្នក​អាច​បន្ត​ដោយ​មិន​អនុញ្ញាត​ឱ្យ​ពួក​គេ​ឆ្លង​កាត់ ហើយ​នៅ​តែ​ស្ថិត​ក្នុង​ច្បាប់​បើកបរ​ផ្លូវ​ច្បាប់​ពេញលេញ​នៃ​ការ​ធ្វើ​ដូច្នេះ។

ការសិក្សាអំពីរបៀបដែលអ្នកបើកបរមនុស្សសម្រេចចិត្តឈប់ ឬមិនឈប់សម្រាប់អ្នកថ្មើរជើងបែបនេះ បានបង្ហាញថា ពេលខ្លះអ្នកបើកបរមនុស្សធ្វើការជ្រើសរើសដោយផ្អែកលើភាពលំអៀងដែលមិនសមហេតុផល។ អ្នកបើកបរមនុស្សអាចសម្លឹងមើលអ្នកថ្មើរជើង ហើយជ្រើសរើសមិនឈប់ ទោះបីជាពួកគេនឹងឈប់ក៏ដោយ ប្រសិនបើអ្នកថ្មើរជើងមានរូបរាងខុសគ្នា ដូចជាផ្អែកលើពូជសាសន៍ ឬភេទ។ ខ្ញុំបានពិនិត្យរឿងនេះនៅ តំណភ្ជាប់នៅទីនេះ.

តើ​ប្រព័ន្ធ​បើកបរ AI នឹង​ត្រូវ​បាន​ដាក់​កម្មវិធី​យ៉ាង​ណា​ដើម្បី​ធ្វើ​ការ​សម្រេច​ចិត្ត​ឈប់​ឬ​ទៅ?

អ្នកអាចប្រកាសថាប្រព័ន្ធបើកបរ AI ទាំងអស់គួរតែត្រូវបានដាក់កម្មវិធីដើម្បីបញ្ឈប់ជានិច្ចសម្រាប់អ្នកថ្មើរជើងដែលកំពុងរង់ចាំ។ នេះជួយសម្រួលបញ្ហាយ៉ាងខ្លាំង។ ពិត​ជា​មិន​មាន​ការ​សម្រេច​ចិត្ត​ណា​មួយ​ដែល​ត្រូវ​ធ្វើ​ឡើយ។ ប្រសិនបើអ្នកថ្មើរជើងកំពុងរង់ចាំឆ្លងកាត់ ដោយមិនគិតពីថាតើពួកគេមានផ្លូវត្រូវឬអត់ទេ សូមប្រាកដថារថយន្តដែលបើកបរដោយខ្លួនឯង AI មកឈប់ដើម្បីឱ្យអ្នកថ្មើរជើងឆ្លងកាត់បាន។

ងាយស្រួលបំផុត។

ជីវិត​មិន​ដែល​ងាយ​ស្រួល​នោះ​ទេ វា​ហាក់​ដូច​ជា។ ស្រមៃថារថយន្តដែលបើកបរដោយខ្លួនឯងទាំងអស់គោរពតាមច្បាប់នេះ។ អ្នកថ្មើរជើងនឹងដឹងដោយជៀសមិនរួចថាប្រព័ន្ធបើកបរ AI គឺជាការរុញច្រាន។ អ្នកថ្មើរជើងណាក៏ដោយដែលចង់ឆ្លងផ្លូវនឹងស្ម័គ្រចិត្តធ្វើដូច្នេះនៅពេលណាដែលពួកគេប្រាថ្នា និងគ្រប់ទីកន្លែងដែលពួកគេនៅ។

ឧបមាថារថយន្តដែលបើកបរដោយខ្លួនឯងកំពុងមកតាមផ្លូវល្បឿនលឿនក្នុងល្បឿនកំណត់ 45 ម៉ាយក្នុងមួយម៉ោង។ អ្នកថ្មើរជើង "ដឹង" ថា AI នឹងនាំរថយន្តដែលបើកបរដោយខ្លួនឯងទៅឈប់។ ដូច្នេះ​អ្នក​ថ្មើរ​ជើង​ក៏​លោត​ចូល​ផ្លូវ។ ជាអកុសល រូបវិទ្យាឈ្នះលើ AI ។ ប្រព័ន្ធបើកបរ AI នឹងព្យាយាមនាំរថយន្តដែលបើកបរដោយស្វ័យប្រវត្តិឱ្យឈប់ ប៉ុន្តែសន្ទុះនៃរថយន្តស្វ័យប្រវត្តិនឹងដឹកកុងតឺន័រច្រើនតោនទៅមុខ ហើយរុញចូលទៅក្នុងផ្លូវថ្មើរជើង។ លទ្ធផលគឺរបួស ឬបណ្តាលឱ្យស្លាប់។

ជាធម្មតា អ្នកថ្មើរជើងមិនសាកល្បងអាកប្បកិរិយាបែបនេះទេ នៅពេលដែលមានមនុស្សជិះកង់។ ប្រាកដណាស់ នៅតាមតំបន់ខ្លះមានសង្រ្គាមគ្រាប់ភ្នែកដែលកើតឡើង។ ភ្នែកអ្នកថ្មើរជើងវាយអ្នកបើកបរ។ អ្នកបើកបរ​មើល​ភ្នែក​អ្នក​ថ្មើរជើង។ អាស្រ័យលើកាលៈទេសៈ អ្នកបើកបរអាចមកឈប់ ឬអ្នកបើកបរអាចអះអាងទាមទារផ្លូវថ្នល់ ហើយទំនងជាមិនហ៊ានឱ្យអ្នកថ្មើរជើងព្យាយាមរំខានផ្លូវរបស់ពួកគេ។

យើងសន្មត់ថាមិនចង់ឱ្យ AI ចូលទៅក្នុងសង្រ្គាមភ្នែកស្រដៀងគ្នានេះទេ ដែលវាជាបញ្ហាប្រឈមបន្តិចផងដែរ ចាប់តាំងពីមិនមានមនុស្ស ឬមនុស្សយន្តអង្គុយនៅកង់រថយន្តដែលបើកបរដោយខ្លួនឯង (ខ្ញុំបានពិភាក្សាអំពីលទ្ធភាពអនាគតរបស់មនុស្សយន្ត ដ្រាយនោះសូមមើល តំណភ្ជាប់នៅទីនេះ) យ៉ាងណាក៏ដោយ យើងក៏មិនអាចអនុញ្ញាតឲ្យអ្នកថ្មើរជើង ហៅថតបានដែរ។ លទ្ធផលអាចជាគ្រោះមហន្តរាយសម្រាប់អ្នកពាក់ព័ន្ធទាំងអស់។

បន្ទាប់មក អ្នកប្រហែលជាត្រូវបានល្បួងឱ្យត្រឡប់ទៅកាន់ផ្នែកម្ខាងទៀតនៃកាក់នេះ ហើយប្រកាសថាប្រព័ន្ធបើកបរ AI មិនគួរបញ្ឈប់ក្នុងកាលៈទេសៈបែបនេះឡើយ។ ម្យ៉ាងវិញទៀត ប្រសិនបើអ្នកថ្មើរជើងមិនមានសិទ្ធិត្រឹមត្រូវក្នុងការឆ្លងកាត់ផ្លូវនោះ AI គួរតែសន្មត់ថារថយន្តដែលបើកបរដោយខ្លួនឯងគួរតែដំណើរការដោយមិនឈប់ឈរ។ សំណាងអាក្រក់សម្រាប់អ្នកថ្មើរជើងទាំងនោះ។

ច្បាប់ដ៏តឹងរ៉ឹង និងសាមញ្ញបែបនេះ នឹងមិនមានការទទួលស្គាល់ពីសាធារណជនយ៉ាងច្រើននោះទេ។ មនុស្សគឺជាមនុស្ស ហើយពួកគេនឹងមិនចូលចិត្តត្រូវបានបិទទាំងស្រុងពីការមិនអាចឆ្លងកាត់ផ្លូវនោះទេ បើទោះបីជាពួកគេខ្វះផ្លូវច្បាប់ក្នុងការធ្វើដូច្នេះនៅក្នុងការកំណត់ផ្សេងៗក៏ដោយ។ អ្នកអាចទន្ទឹងរង់ចាំបានយ៉ាងងាយនឹងមានការចលាចលយ៉ាងខ្លាំងពីសាធារណជន ហើយប្រហែលជាឃើញប្រតិកម្មតបតកើតឡើងប្រឆាំងនឹងការបន្តការទទួលយករថយន្តបើកបរដោយខ្លួនឯង។

ហ៊ានបើយើងធ្វើ ហើយហ៊ានបើយើងមិនធ្វើ។

ខ្ញុំសង្ឃឹមថាវាបាននាំអ្នកទៅរកជម្រើសដ៏សមហេតុផលដែល AI ចាំបាច់ត្រូវរៀបចំកម្មវិធីជាមួយនឹងភាពស្រដៀងគ្នានៃការសម្រេចចិត្តអំពីរបៀបដោះស្រាយបញ្ហាបើកបរនេះ។ ច្បាប់រឹង និងលឿនដើម្បីមិនឈប់គឺមិនអាចទទួលយកបាន ហើយដូចគ្នាដែរ ច្បាប់រឹង និងលឿនដែលត្រូវឈប់ជានិច្ចក៏មិនអាចអនុវត្តបានដែរ។ AI ត្រូវតែបង្កើតជាមួយនឹងការសម្រេចចិត្ត ឬ ADM ដើម្បីដោះស្រាយបញ្ហា។

អ្នក​អាច​សាកល្បង​ប្រើ​សំណុំ​ទិន្នន័យ​រួម​ជាមួយ​វិធីសាស្ត្រ ML/DL។

នេះជារបៀបដែលអ្នកអភិវឌ្ឍន៍ AI អាចសម្រេចចិត្តរៀបចំកិច្ចការនេះ។ ពួកគេប្រមូលទិន្នន័យពីកាមេរ៉ាវីដេអូដែលត្រូវបានដាក់នៅជុំវិញទីក្រុងជាក់លាក់មួយ ដែលរថយន្តបើកបរដោយខ្លួនឯងនឹងត្រូវប្រើប្រាស់នៅក្នុងនោះ។ ទិន្នន័យបង្ហាញពីពេលដែលអ្នកបើកបរមនុស្សជ្រើសរើសឈប់សម្រាប់អ្នកថ្មើរជើងដែលមិនមានផ្លូវត្រូវ។ វាត្រូវបានប្រមូលទាំងអស់ទៅក្នុងសំណុំទិន្នន័យ។ ដោយប្រើ Machine Learning និង Deep Learning ទិន្នន័យត្រូវបានយកគំរូតាមការគណនា។ ប្រព័ន្ធបើកបរ AI បន្ទាប់មកប្រើម៉ូដែលនេះដើម្បីសម្រេចថាពេលណាត្រូវឈប់ ឬមិនឈប់។

ជាទូទៅ គំនិតនេះគឺថា អ្វីក៏ដោយដែលទំនៀមទំលាប់ក្នុងស្រុកមាន នោះជារបៀបដែល AI នឹងដឹកនាំរថយន្តដែលបើកបរដោយខ្លួនឯងបាន។ បញ្ហាត្រូវបានដោះស្រាយ!

ប៉ុន្តែ តើ​វា​ពិត​ជា​អាច​ដោះស្រាយ​បាន​ឬ​ទេ?

សូមចាំថាខ្ញុំបានចង្អុលបង្ហាញរួចហើយថាមានការសិក្សាស្រាវជ្រាវដែលបង្ហាញថាអ្នកបើកបរមនុស្សអាចមានភាពលំអៀងក្នុងជម្រើសរបស់ពួកគេថាតើពេលណាត្រូវឈប់សម្រាប់អ្នកថ្មើរជើង។ ទិន្នន័យដែលប្រមូលបានអំពីទីក្រុងជាក់លាក់មួយ សន្មតថានឹងមានការលំអៀងទាំងនោះ។ AI ML/DL ផ្អែកលើទិន្នន័យនោះនឹងទំនងជាគំរូ និងឆ្លុះបញ្ចាំងពីភាពលំអៀងដូចគ្នាទាំងនោះ។ ប្រព័ន្ធបើកបរ AI នឹងគ្រាន់តែអនុវត្តការលំអៀងដែលមានស្រាប់ដូចគ្នា។

ដើម្បីព្យាយាមដោះស្រាយបញ្ហានេះ យើងអាចដាក់សំណុំទិន្នន័យរួមគ្នា ដែលតាមពិតមានភាពលំអៀងបែបនេះ។ យើងរកឃើញសំណុំទិន្នន័យបែបនេះ ហើយដាក់ស្លាកភាពលំអៀង ឬយើងសំយោគសំណុំទិន្នន័យដើម្បីជួយក្នុងការបង្ហាញបញ្ហា។

រាល់ជំហានដែលបានកំណត់ពីមុននឹងត្រូវអនុវត្ត រួមមានៈ

  • រៀបចំសំណុំទិន្នន័យដែលមានចេតនាលំអៀងជាក់លាក់នេះ។
  • ប្រើសំណុំទិន្នន័យដើម្បីបណ្តុះបណ្តាលគំរូ Machine Learning (ML) និង Deep Learning (DL) អំពីការរកឃើញភាពលំអៀងជាក់លាក់នេះ។
  • អនុវត្ត ML/DL ដែលត្រូវបានបណ្តុះបណ្តាលដោយលំអៀងទៅកាន់ AI ផ្សេងទៀត ដើម្បីបញ្ជាក់ថាតើ AI គោលដៅមានសក្តានុពលមានភាពលំអៀងក្នុងលក្ខណៈដូចគ្នាដែរឬទេ
  • ធ្វើឱ្យមាន ML/DL ដែលត្រូវបានបណ្តុះបណ្តាលដោយលំអៀង ដើម្បីបង្ហាញដល់អ្នកបង្កើត AI នូវអ្វីដែលត្រូវប្រុងប្រយ័ត្ន ដូច្នេះពួកគេអាចពិនិត្យមើលគំរូរបស់ពួកគេបានយ៉ាងងាយស្រួល ដើម្បីមើលពីរបៀបដែលការលំអៀងដែលត្រូវបានបង្កប់ដោយ algorithmically កើតឡើង
  • ជាឧទាហរណ៍ពីគ្រោះថ្នាក់នៃ AI លំអៀងជាផ្នែកនៃ AI Ethics និង Ethical AI យល់ដឹងតាមរយៈឧទាហរណ៍ជាក់លាក់ដែលបានបន្ថែមនេះ
  • ផ្សេងទៀត

សន្និដ្ឋាន

ចូរយើងពិនិត្យមើលឡើងវិញនូវបន្ទាត់បើក។

វាត្រូវការមួយដើម្បីស្គាល់មួយ។

អ្នកខ្លះបកស្រាយថាការនិយាយដែលរីករាលដាលមិនគួរឱ្យជឿនេះបង្កប់ន័យថានៅពេលនិយាយអំពីការបណ្តេញជាតិពុល AI យើងគួរតែផ្តល់ការជឿជាក់លើការកសាង និងប្រើប្រាស់សារធាតុពុល AI ឆ្ពោះទៅរកការរកឃើញ និងដោះស្រាយជាមួយ AI ពុលផ្សេងទៀត។ ចំណុចខាងក្រោម៖ ពេលខ្លះត្រូវចាប់ចោរម្នាក់ទៀត។

ការ​ព្រួយ​បារម្ភ​មួយ​គឺ​ថា​ប្រហែល​ជា​យើង​នឹង​ចេញ​ពី​ផ្លូវ​របស់​យើង​ដើម្បី​ចាប់​ផ្តើម​បង្កើត​ចោរ។ តើយើងចង់បង្កើត AI ដែលមានជាតិពុលទេ? វាហាក់ដូចជាគំនិតឆ្កួតមែនទេ? អ្នកខ្លះប្រកែកយ៉ាងខ្លាំងថាយើងគួរតែហាមប្រាម AI ពុលទាំងអស់ រួមទាំង AI បែបនេះដែលត្រូវបានបង្កើតឡើងដោយចេតនា បើទោះបីជាត្រូវបានគេសន្មត់ថាសម្រាប់វីរភាព ឬក្លាហានក៏ដោយ។ អាយអេសដើម្បីភាពល្អ គោលបំណង។

Squelch ជាតិពុល AI នៅក្នុងការក្លែងបន្លំណាមួយដែលឆ្លាតឬ insidious ដែលវាអាចកើតឡើង។

ការកែប្រែចុងក្រោយមួយលើប្រធានបទនេះសម្រាប់ពេលនេះ។ ជាទូទៅ យើងសន្មត់ថា ខ្សែដ៏ល្បីនេះទាក់ទងនឹងមនុស្ស ឬរឿងដែលធ្វើអំពើអាក្រក់ ឬជូរចត់។ នោះ​ហើយ​ជា​របៀប​ដែល​យើង​យល់​ឃើញ​ថា វា​យក​ចោរ​មក​ចាប់​ចោរ។ ប្រហែល​ជា​យើង​គួរ​បង្វែរ​ពាក្យ​នេះ​មក​ដាក់​លើ​ក្បាល​វា ហើយ​ធ្វើ​ឱ្យ​វា​មាន​ទឹក​មុខ​រីករាយ​ជាង​ទឹក​មុខ​ក្រៀមក្រំ។

នេះជារបៀប។

ប្រសិនបើយើងចង់បាន AI ដែលមិនលំអៀង និងមិនមានជាតិពុល វាអាចយល់បានថាវាត្រូវការមនុស្សម្នាក់ដើម្បីស្គាល់។ ប្រហែល​ជា​ត្រូវ​ចំណាយ​ពេល​ដ៏​អស្ចារ្យ​បំផុត និង​ល្អ​បំផុត​ដើម្បី​ទទួល​ស្គាល់ និង​បង្កើត​ភាព​អស្ចារ្យ​និង​ភាព​ល្អ​បន្ថែម​ទៀត។ ម្នាលអាវុសោ​ទាំងឡាយ​នេះ យើង​រក្សា​ការ​សម្លឹង​ដោយ​ទឹកមុខ​រីករាយ ហើយ​មាន​បំណង​ផ្ចង់​ស្មារតី​លើ​ឧបាទាន។ AI សម្រាប់ការល្អ។

នោះនឹងជាទស្សនៈដ៏រីករាយ និងរីករាយជាងនេះទៅទៀត នៅលើវាត្រូវចំណាយពេលមួយដើម្បីស្គាល់មួយ ប្រសិនបើអ្នកដឹងពីអ្វីដែលខ្ញុំមានន័យ។

ប្រភព៖ https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- Beneficial-including-for-those-autonomous-self-driving-cars/