មនុស្សត្រូវដឹងពីដែនកំណត់របស់វា។
អ្នកអាចរំលឹកឡើងវិញនូវខ្សែបន្ទាត់ដ៏ល្បីល្បាញអំពីការដឹងពីដែនកំណត់របស់យើង ដូចដែលបាននិយាយយ៉ាងក្រៀមក្រំដោយតួអង្គ Dirty Harry នៅក្នុងខ្សែភាពយន្តឆ្នាំ 1973 ដែលមានចំណងជើងថា កម្លាំង Magnum (តាមការនិយាយរបស់តារាសម្តែង Clint Eastwood ក្នុងតួនាទីមិនអាចបំភ្លេចបានរបស់គាត់ជាអធិការ Harry Callahan) ។ គំនិតទូទៅគឺថា ពេលខ្លះយើងមានទំនោរមើលរំលងដែនកំណត់ផ្ទាល់ខ្លួនរបស់យើង ហើយយកខ្លួនយើងចូលទៅក្នុងទឹកក្តៅតាមនោះ។ មិនថាដោយសារភាពល្ងង់ខ្លៅ ភាពអត្មានិយម ឬគ្រាន់តែខ្វាក់ភ្នែកចំពោះសមត្ថភាពផ្ទាល់ខ្លួនរបស់យើងទេ សិក្ខាបទនៃការយល់ដឹង និងពិចារណាឱ្យបានច្បាស់លាស់ពីភាពខ្វះខាត និងការខ្វះខាតរបស់យើងគឺសមហេតុផល និងមានប្រយោជន៍ច្រើន។
ចូរយើងបន្ថែមការកែប្រែថ្មីទៅផ្នែកនៃដំបូន្មាន។
Artificial Intelligence (AI) បានដឹងពីដែនកំណត់របស់វា។
តើខ្ញុំមានន័យយ៉ាងណាចំពោះការបំប្លែងនៃឃ្លាដែលគួរឲ្យគោរពនោះ?
ប្រែថាការប្រញាប់ប្រញាល់ដំបូងក្នុងការយក AI សម័យថ្មីមកប្រើជាអ្នកដោះស្រាយបញ្ហាពិភពលោកប្រកបដោយក្តីសង្ឃឹម បានក្លាយទៅជាភាពស្រពិចស្រពិល និងពោរពេញដោយភក់ ដោយការយល់ដឹងថា AI សព្វថ្ងៃនេះមានដែនកំណត់ធ្ងន់ធ្ងរ។ យើងបានចេញពីចំណងជើងដែលលើកឡើងនៃ អាយអេសដើម្បីភាពល្អ ហើយបានរកឃើញថាខ្លួនយើងកាន់តែជាប់គាំង អាយអេសសម្រាប់អាក្រក់. អ្នកឃើញទេ ប្រព័ន្ធ AI ជាច្រើនត្រូវបានបង្កើតឡើង និងបំពាក់ដោយភាពលំអៀងខាងពូជសាសន៍ និងយេនឌ័រ ហើយនិងវិសមភាពដ៏គួរឱ្យភ័យខ្លាចជាច្រើនផ្សេងទៀត។
សម្រាប់ការគ្របដណ្តប់យ៉ាងទូលំទូលាយ និងបន្តរបស់ខ្ញុំនៃ AI Ethics និង Ethical AI សូមមើល តំណភ្ជាប់នៅទីនេះ និង តំណភ្ជាប់នៅទីនេះ, គ្រាន់តែឈ្មោះមួយចំនួន។
ភាពលំអៀងដែលត្រូវបានរកឃើញនៅក្នុងប្រព័ន្ធ AI ទាំងនេះមិនមែនជាអ្វីដែលយើងត្រូវនិយាយថា "ចេតនា" ប្រភេទដែលយើងនឹងតំណាងឱ្យអាកប្បកិរិយារបស់មនុស្សនោះទេ។ ខ្ញុំលើកឡើងនេះដើម្បីបញ្ជាក់ថា AI សព្វថ្ងៃមិនសូវមានអារម្មណ៍ទេ។ ថ្វីត្បិតតែមានចំណងជើងដែលនិយាយខុសពីនេះក៏ដោយ ក៏មិនមាន AI នៅកន្លែងណាដែលសូម្បីតែចូលមកជិតមនោសញ្ចេតនា។ លើសពីនេះ យើងមិនដឹងពីរបៀបយក AI ចូលទៅក្នុងតង្កៀបនៃអារម្មណ៍នោះទេ បូករួមទាំងគ្មាននរណាម្នាក់អាចបញ្ជាក់បានថា តើយើងនឹងអាចទទួលបាន AI ដែរឬទេ។ ប្រហែលជាថ្ងៃណាមួយវានឹងកើតឡើងឬក៏ប្រហែលជាមិនខាន។
ដូច្នេះ ចំណុចរបស់ខ្ញុំគឺថា យើងមិនអាចកំណត់ចេតនាជាពិសេសចំពោះប្រភេទនៃ AI ដែលយើងមាននាពេលបច្ចុប្បន្ននេះទេ។ បើនិយាយដូច្នេះ យើងអាចកំណត់ចេតនាយ៉ាងបរិបូរណ៍ទៅអ្នកដែលកំពុងបង្កើតប្រព័ន្ធ AI ។ អ្នកអភិវឌ្ឍន៍ AI មួយចំនួនមិនបានដឹងពីការពិតដែលថាពួកគេបានបង្កើតប្រព័ន្ធ AI ដែលផ្ទុកនូវភាពមិនអនុគ្រោះ និងអាចជាការលំអៀងខុសច្បាប់។ ទន្ទឹមនឹងនេះដែរ អ្នកអភិវឌ្ឍន៍ AI ផ្សេងទៀតដឹងថាពួកគេកំពុងបង្កើតភាពលំអៀងទៅក្នុងប្រព័ន្ធ AI របស់ពួកគេ ដោយអាចធ្វើដូច្នេះក្នុងលក្ខណៈខុសគោលបំណង។
ទោះជាយ៉ាងណាក៏ដោយ លទ្ធផលគឺនៅតែមើលទៅមិនទំនង និងទំនងជាមិនស្របច្បាប់។
កិច្ចខិតខំប្រឹងប្រែងដ៏រឹងមាំកំពុងដំណើរការដើម្បីផ្សព្វផ្សាយគោលការណ៍ក្រមសីលធម៌ AI ដែលនឹងបំភ្លឺដល់អ្នកអភិវឌ្ឍន៍ AI និងផ្តល់ការណែនាំសមរម្យសម្រាប់ការដឹកនាំជម្រះភាពលំអៀងទៅក្នុងប្រព័ន្ធ AI របស់ពួកគេ។ នេះនឹងជួយក្នុងទម្រង់ពីរ។ ទីមួយ ការបង្កើត AI ទាំងនោះនឹងលែងមានលេសដែលត្រៀមរួចជាស្រេចថា ពួកគេគ្រាន់តែមិនបានយល់ដឹងអំពីសិក្ខាបទណាដែលគួរអនុវត្តតាម។ ទីពីរ អ្នកដែលងាកចេញពីលក្ខខណ្ឌ Ethical AI នឹងត្រូវបានចាប់បានយ៉ាងងាយស្រួល និងបង្ហាញឱ្យឃើញថាជាការបញ្ចៀសនូវអ្វីដែលពួកគេត្រូវបានព្រមានជាមុនឱ្យធ្វើ និងមិនធ្វើ។
សូមចំណាយពេលបន្តិច ដើម្បីពិចារណាដោយសង្ខេបនូវសិក្ខាបទសីលធម៌ AI សំខាន់ៗមួយចំនួន ដើម្បីបង្ហាញពីអ្វីដែលអ្នកបង្កើត AI គួរតែគិត និងអនុវត្តយ៉ាងម៉ត់ចត់ពីគោលជំហរសីលធម៌ AI ។
នេះបើតាមការបញ្ជាក់របស់បុរីវ៉ាទីកង់ ទីក្រុងរ៉ូមអំពាវនាវឱ្យមានក្រមសីលធម៌ AI ហើយដូចដែលខ្ញុំបានគ្របដណ្តប់ស៊ីជម្រៅ តំណភ្ជាប់នៅទីនេះទាំងនេះគឺជាគោលការណ៍សីលធម៌ AI ចម្បងចំនួនប្រាំមួយដែលបានកំណត់របស់ពួកគេ៖
- តម្លាភាព: ជាគោលការណ៍ ប្រព័ន្ធ AI ត្រូវតែអាចពន្យល់បាន។
- បញ្ចូល៖ តម្រូវការរបស់មនុស្សគ្រប់រូបត្រូវតែយកមកពិចារណា ដើម្បីឲ្យមនុស្សគ្រប់រូបទទួលបានអត្ថប្រយោជន៍ ហើយបុគ្គលទាំងអស់អាចទទួលបានលក្ខខណ្ឌល្អបំផុតដើម្បីបង្ហាញពីខ្លួនឯង និងអភិវឌ្ឍ។
- ទំនួលខុសត្រូវ: អ្នកដែលរចនា និងដាក់ពង្រាយការប្រើប្រាស់ AI ត្រូវតែដំណើរការដោយការទទួលខុសត្រូវ និងតម្លាភាព
- មិនលំអៀង៖ កុំបង្កើត ឬធ្វើសកម្មភាពដោយលំអៀង ការពារភាពត្រឹមត្រូវ និងសេចក្តីថ្លៃថ្នូររបស់មនុស្ស
- ភាពជឿជាក់៖ ប្រព័ន្ធ AI ត្រូវតែអាចដំណើរការដោយភាពជឿជាក់
- សុវត្ថិភាព និងឯកជនភាព៖ ប្រព័ន្ធ AI ត្រូវតែដំណើរការដោយសុវត្ថិភាព និងគោរពភាពឯកជនរបស់អ្នកប្រើប្រាស់។
ដូចដែលបានបញ្ជាក់ដោយក្រសួងការពារជាតិសហរដ្ឋអាមេរិក (DoD) នៅក្នុងរបស់ពួកគេ។ គោលការណ៍សីលធម៌សម្រាប់ការប្រើប្រាស់បញ្ញាសិប្បនិម្មិត ហើយដូចដែលខ្ញុំបានគ្របដណ្តប់ស៊ីជម្រៅ តំណភ្ជាប់នៅទីនេះនេះគឺជាគោលការណ៍សីលធម៌ AI ចម្បងចំនួនប្រាំមួយរបស់ពួកគេ៖
- ទទួលខុសត្រូវ: បុគ្គលិក DoD នឹងអនុវត្តកម្រិតនៃការវិនិច្ឆ័យ និងការថែទាំសមស្រប ខណៈពេលដែលនៅតែទទួលខុសត្រូវចំពោះការអភិវឌ្ឍន៍ ការដាក់ពង្រាយ និងការប្រើប្រាស់សមត្ថភាព AI ។
- សមភាព៖ នាយកដ្ឋាននឹងចាត់វិធានការដោយចេតនា ដើម្បីកាត់បន្ថយភាពលំអៀងដោយអចេតនានៅក្នុងសមត្ថភាព AI ។
- អាចតាមដានបាន៖ សមត្ថភាព AI របស់នាយកដ្ឋាននឹងត្រូវបានបង្កើតឡើង និងដាក់ឱ្យប្រើប្រាស់ ដែលបុគ្គលិកពាក់ព័ន្ធមានការយល់ដឹងសមស្របអំពីបច្ចេកវិទ្យា ដំណើរការអភិវឌ្ឍន៍ និងវិធីសាស្រ្តប្រតិបត្តិការដែលអនុវត្តចំពោះសមត្ថភាព AI រួមទាំងវិធីសាស្រ្តដែលមានតម្លាភាព និងសវនកម្ម ប្រភពទិន្នន័យ និងនីតិវិធីរចនា និងឯកសារ។
- អាចជឿទុកចិត្តបាន: សមត្ថភាព AI របស់នាយកដ្ឋាននឹងមានការប្រើប្រាស់ច្បាស់លាស់ និងច្បាស់លាស់ ហើយសុវត្ថិភាព សុវត្ថិភាព និងប្រសិទ្ធភាពនៃសមត្ថភាពទាំងនោះនឹងត្រូវឆ្លងកាត់ការធ្វើតេស្ត និងការធានានៅក្នុងការប្រើប្រាស់ដែលបានកំណត់នៅទូទាំងវដ្តជីវិតរបស់ពួកគេ។
- អាចគ្រប់គ្រងបាន៖ នាយកដ្ឋាននឹងរចនា និងវិស្វកម្មសមត្ថភាព AI ដើម្បីបំពេញមុខងារដែលបានគ្រោងទុក ខណៈពេលដែលមានសមត្ថភាពក្នុងការរកឃើញ និងជៀសវាងផលវិបាកដែលមិនចង់បាន និងសមត្ថភាពក្នុងការផ្តាច់ ឬបិទប្រព័ន្ធដែលបានដាក់ពង្រាយ ដែលបង្ហាញពីអាកប្បកិរិយាអចេតនា។
ខ្ញុំក៏បានពិភាក្សាផងដែរអំពីការវិភាគសមូហភាពផ្សេងៗនៃគោលការណ៍សីលធម៌ AI រួមទាំងការគ្របដណ្តប់លើសំណុំដែលបង្កើតឡើងដោយអ្នកស្រាវជ្រាវដែលបានពិនិត្យ និងបង្រួមខ្លឹមសារនៃគោលការណ៍សីលធម៌ AI ជាតិ និងអន្តរជាតិជាច្រើននៅក្នុងក្រដាសដែលមានចំណងជើងថា "ទេសភាពសកលនៃគោលការណ៍ណែនាំសីលធម៌ AI" (បោះពុម្ពផ្សាយ ក្នុង ធម្មជាតិ) ហើយការគ្របដណ្តប់របស់ខ្ញុំរុករកនៅ តំណភ្ជាប់នៅទីនេះដែលនាំទៅដល់បញ្ជីគន្លឹះនេះ៖
- តម្លាភាព
- យុត្តិធម៌ និងយុត្តិធម៌
- ភាពមិនអាក្រក់
- ការទទួលខុសត្រូវ
- ភាពឯកជន
- អត្ថប្រយោជន៍
- សេរីភាព និងស្វ័យភាព
- ការជឿទុកចិត្ត
- និរន្តរភាព
- សេចក្តីថ្លៃថ្នូរ
- សាមគ្គីភាព
ដូចដែលអ្នកអាចទាយដោយផ្ទាល់ ការព្យាយាមកំណត់ចំណុចជាក់លាក់នៃគោលការណ៍ទាំងនេះអាចជារឿងពិបាកធ្វើណាស់។ កាន់តែពិសេសជាងនេះទៅទៀត ការខិតខំប្រឹងប្រែងដើម្បីប្រែក្លាយគោលការណ៍ដ៏ទូលំទូលាយទាំងនោះទៅជាអ្វីដែលជាក់ស្តែង និងលម្អិតគ្រប់គ្រាន់ដើម្បីប្រើប្រាស់នៅពេលបង្កើតប្រព័ន្ធ AI ក៏ជាចំណុចពិបាកមួយក្នុងការបំបែក។ វាជាការងាយស្រួលក្នុងការធ្វើការគ្រវីដៃខ្លះៗអំពីអ្វីដែល AI Ethics precepts និងរបៀបដែលពួកគេគួរតែត្រូវបានគេសង្កេតឃើញជាទូទៅ ខណៈពេលដែលវាជាស្ថានភាពស្មុគស្មាញជាងនៅលើការសរសេរកូដ AI ដែលត្រូវតែជាជ័រកៅស៊ូដែលអាចផ្ទៀងផ្ទាត់បានដែលជួបនឹងផ្លូវ។
គោលការណ៍ក្រមសីលធម៌ AI នឹងត្រូវប្រើប្រាស់ដោយអ្នកអភិវឌ្ឍន៍ AI រួមជាមួយនឹងអ្នកដែលគ្រប់គ្រងកិច្ចខិតខំប្រឹងប្រែងក្នុងការអភិវឌ្ឍន៍ AI និងសូម្បីតែអ្នកដែលនៅទីបំផុតអនុវត្ត និងថែទាំប្រព័ន្ធ AI ។ អ្នកពាក់ព័ន្ធទាំងអស់នៅទូទាំងវដ្តជីវិតនៃការអភិវឌ្ឍន៍ និងការប្រើប្រាស់ AI ទាំងមូលត្រូវបានពិចារណាក្នុងវិសាលភាពនៃការគោរពតាមបទដ្ឋានដែលត្រូវបានបង្កើតឡើងនៃ Ethical AI ។ នេះគឺជាការគូសបញ្ជាក់ដ៏សំខាន់មួយចាប់តាំងពីការសន្មត់ជាធម្មតាគឺថា "មានតែអ្នកសរសេរកូដ" ឬអ្នកដែលកម្មវិធី AI ប៉ុណ្ណោះដែលត្រូវប្រកាន់ខ្ជាប់នូវគោលគំនិតសីលធម៌របស់ AI ។ សូមដឹងថា វាត្រូវការភូមិមួយដើម្បីបង្កើត និងធ្វើការវាយតម្លៃ AI ។ ដែលភូមិទាំងមូលត្រូវប្រកាន់ខ្ជាប់នូវក្រមសីលធម៌ AI ។
ទោះយ៉ាងណាក៏ដោយ ឥឡូវនេះខ្ញុំបានទទួលនៅលើតុដែល AI អាចមានភាពលំអៀង យើងទាំងអស់គ្នាប្រហែលជាយល់ព្រមចំពោះការពិតជាក់ស្តែងទាំងពីរនេះ៖
1. មនុស្សអាចមានភាពលំអៀងជាច្រើន ហើយអាចធ្វើសកម្មភាពលើពួកគេ។
2. AI អាចមានភាពលំអៀងជាច្រើន ហើយអាចធ្វើសកម្មភាពលើភាពលំអៀងទាំងនោះ
ខ្ញុំមានការស្អប់ខ្ពើមបន្តិចក្នុងការជង់មនុស្សធៀបនឹង AI នៅក្នុងបរិបទនោះ ព្រោះវាប្រហែលជាអាចបញ្ជាក់បានថា AI មានសមត្ថភាពបញ្ជូនមនុស្សស្មើរនឹងមនុស្ស។ នេះប្រាកដជាមិនដូច្នោះទេ។ ខ្ញុំនឹងត្រលប់មកវិញមួយរំពេចចំពោះការព្រួយបារម្ភដែលកំពុងកើនឡើងអំពីការធ្វើនិរន្តរភាពនៃ AI បន្តិចក្រោយមកនៅក្នុងការពិភាក្សានេះ។
តើមួយណាអាក្រក់ជាងនេះទៅទៀត មនុស្សដែលបង្ហាញភាពលំអៀង ឬ AI ដែលធ្វើដូច្នេះ?
ខ្ញុំហ៊ាននិយាយថាសំណួរចោទជាជម្រើសមួយក្នុងចំណោមជម្រើសទាំងនោះ។ វាជាសុភាសិតតិចនៃអំពើអាក្រក់ពីរ ដែលគេអាចប្រកែកបាន។ យើងចង់ឱ្យមនុស្សមិនបង្កើតភាពលំអៀង។ យើងចង់បន្ថែមទៀតថា បើទោះជាមនុស្សមានភាពលម្អៀងទៅខាងណាក៏ដោយ ពួកគេនឹងមិនប្រព្រឹត្តទៅលើភាពលំអៀងទាំងនោះ។ ដូចគ្នានេះដែរអាចត្រូវបាននិយាយយ៉ាងត្រឹមត្រូវអំពី AI ។ យើងប្រាថ្នាថា AI មិនបានបង្កប់ភាពលំអៀងដែលមិនលំអៀង ហើយថាទោះបីជាមានភាពលំអៀងខាងក្នុងដែល AI នឹងមិនធ្វើសកម្មភាពលើពួកគេក៏ដោយ។
បំណងប្រាថ្នាទោះបីជាមិនចាំបាច់ដំណើរការពិភពលោកក៏ដោយ (សម្រាប់ការវិភាគរបស់ខ្ញុំអំពីការកើនឡើងនិងការរំខាននៃអ្វីដែលហៅថា ការបំពេញបំណងប្រាថ្នារបស់ AI ដោយសង្គមទាំងមូលសូមមើល តំណភ្ជាប់នៅទីនេះ).
មិនអីទេ យើងច្បាស់ជាចង់ឱ្យមនុស្សដឹងពីដែនកំណត់របស់វា។ មានសារៈសំខាន់ក្នុងការទទួលស្គាល់នៅពេលដែលអ្នកមានភាពលំអៀង។ វាមានសារៈសំខាន់ស្មើគ្នាក្នុងការព្យាយាមទប់ស្កាត់ភាពលំអៀងដែលមិនគួរឱ្យជឿទាំងនោះពីការបញ្ចូលទៅក្នុងសកម្មភាព និងការសម្រេចចិត្តរបស់អ្នក។ អាជីវកម្មសព្វថ្ងៃនេះកំពុងព្យាយាមគ្រប់បែបយ៉ាងដើម្បីរក្សាបុគ្គលិករបស់ពួកគេពីការធ្លាក់ចូលទៅក្នុងភាពលំអៀងដែលមិនមានភាពលំអៀង។ ការបណ្តុះបណ្តាលជំនាញកំពុងត្រូវបានផ្តល់ដល់និយោជិតអំពីរបៀបអនុវត្តការងាររបស់ពួកគេប្រកបដោយក្រមសីលធម៌។ ដំណើរការត្រូវបានរៀបចំឡើងជុំវិញនិយោជិត ដើម្បីជូនដំណឹងដល់ពួកគេ នៅពេលដែលពួកគេហាក់បីដូចជាបង្ហាញនូវភាពគ្មានសីលធម៌។ លល។
មធ្យោបាយមួយទៀតនៃការទប់ទល់នឹងមនុស្ស និងភាពលំអៀងរបស់ពួកគេគឺដើម្បីធ្វើឱ្យការងារផ្អែកលើមនុស្សដោយស្វ័យប្រវត្តិ។ បាទ / ចាសគ្រាន់តែដកមនុស្សចេញពីរង្វិលជុំ។ កុំអនុញ្ញាតឱ្យមនុស្សធ្វើកិច្ចការធ្វើការសម្រេចចិត្ត ហើយអ្នកសន្មតថាលែងមានការព្រួយបារម្ភអំពីភាពលំអៀងរបស់មនុស្សចំពោះភាពលំអៀងណាមួយទៀតហើយ។ មិនមានមនុស្សចូលរួមទេ ដូច្នេះហើយបញ្ហានៃភាពលំអៀងរបស់មនុស្សហាក់ដូចជាត្រូវបានដោះស្រាយ។
ខ្ញុំលើកយករឿងនេះឡើង ពីព្រោះយើងកំពុងឃើញការផ្លាស់ប្តូរបន្តិចម្តងៗ និងទំហំធំឆ្ពោះទៅរកការប្រើប្រាស់ AI នៅក្នុងវិធីធ្វើការសម្រេចចិត្ត (ADM)។ ប្រសិនបើអ្នកអាចជំនួសបុគ្គលិកមនុស្សដោយ AI នោះ ហាងឆេងគឺថាអត្ថប្រយោជន៍ជាច្រើននឹងកើតឡើង។ ដូចដែលបានបញ្ជាក់រួចមកហើយ អ្នកនឹងលែងបារម្ភពីភាពលំអៀងរបស់មនុស្សរបស់បុគ្គលិកនោះទៀតហើយ (អ្នកដែលលែងធ្វើការងារនោះ)។ ឱកាសគឺថា AI នឹងមានតម្លៃទាបជាងជាទូទៅ បើប្រៀបធៀបទៅនឹងរយៈពេលវែង។ អ្នកលះបង់រាល់ការលំបាកផ្សេងៗដែលកើតឡើងដោយផ្នែក និងផ្នែកជាមួយកម្មករ។ ល។
សំណើដែលកំពុងមានមូលដ្ឋានហាក់ដូចជា៖ នៅពេលព្យាយាមសម្រេចចិត្តកន្លែងដែលត្រូវដាក់ AI ល្អបំផុត សូមក្រឡេកមើលដំបូងទៅកាន់ការកំណត់ដែលពាក់ព័ន្ធនឹងការលំអៀងរបស់មនុស្សរួចហើយដោយកម្មកររបស់អ្នក ហើយសម្រាប់ការលំអៀងទាំងនោះកំពុងកាត់បន្ថយ ឬបើមិនដូច្នេះទេវាធ្វើឱ្យស្មុគស្មាញខ្លាំងពេកដល់កិច្ចការធ្វើការសម្រេចចិត្តជាក់លាក់។
ចំណុចខាងក្រោមគឺថា វាហាក់ដូចជាមានការប្រុងប្រយ័ត្នក្នុងការប្រមូលផលចំណេញច្រើនបំផុតសម្រាប់ប្រាក់របស់អ្នកក្នុងលក្ខខណ្ឌនៃការវិនិយោគលើ AI ដោយមានបំណងឆ្ពោះទៅរកកិច្ចការធ្វើការសម្រេចចិត្តរបស់មនុស្សដែលមានការលាតត្រដាងខ្ពស់ដែលពិបាកគ្រប់គ្រងពីទស្សនវិស័យ infusion ដែលមិនលំអៀង។ ដកបុគ្គលិកក្នុងតួនាទីនោះចេញ។ ជំនួសពួកវាដោយ AI ។ ការសន្មត់គឺថា AI នឹងមិនមានភាពលំអៀងបែបនេះទេ។ ដូច្នេះហើយ អ្នកអាចមាននំខេករបស់អ្នក ហើយញ៉ាំវាផងដែរ ពោលគឺ ទទួលបានកិច្ចការសម្រេចចិត្ត ហើយធ្វើនោះដកផ្នែកសីលធម៌ និងច្បាប់នៃភាពលំអៀងដែលមិនលំអៀង។
នៅពេលអ្នកសរសេរវាចេញ ROI (ត្រឡប់មកវិញលើការវិនិយោគ) ទំនងជាធ្វើឱ្យការទទួលយក AI ជាជម្រើសដែលគ្មានគំនិត។
នេះជារបៀបដែលជាធម្មតាលេងចេញ។
រកមើលនៅក្នុងក្រុមហ៊ុនរបស់អ្នក ហើយព្យាយាមកំណត់អត្តសញ្ញាណកិច្ចការធ្វើការសម្រេចចិត្តដែលប៉ះពាល់ដល់អតិថិជន។ ក្នុងចំណោមការងារទាំងនោះ តើការងារមួយណាទំនងជាត្រូវបានគេបោកបញ្ឆោតមិនសមរម្យបំផុត ប្រសិនបើកម្មករមានភាពលម្អៀង? ប្រសិនបើអ្នកបានព្យាយាមទប់ទល់នឹងភាពលំអៀងទាំងនោះរួចហើយ ប្រហែលជាអ្នកទុកឱ្យអ្វីៗនៅដដែល។ ម៉្យាងវិញទៀត ប្រសិនបើភាពលំអៀងនៅតែបន្តលេចឡើង ហើយការខិតខំប្រឹងប្រែងដើម្បីកម្ចាត់ពួកវាចេញគឺពិបាកចិត្ត សូមពិចារណាទម្លាក់ AI ពាក់ព័ន្ធមួយចំនួនទៅក្នុងតួនាទីនោះ។ កុំរក្សាកម្មករឱ្យនៅក្នុងភាពច្របូកច្របល់ព្រោះពួកគេអាចជាន់លើ AI ឬរុញ AI ត្រឡប់ទៅក្នុងទីជ្រៅបំផុតនៃភាពលំអៀង។ ដូចគ្នានេះផងដែរ ត្រូវប្រាកដថា AI អាចអនុវត្តការងារបានយ៉ាងស្ទាត់ជំនាញ ហើយអ្នកបានចាប់យកមុខនៃការសម្រេចចិត្តបានគ្រប់គ្រាន់ដើម្បីបំពេញការងារ។
លាងជម្រះនិងធ្វើម្តងទៀត។
ខ្ញុំដឹងថា វាហាក់បីដូចជាការយល់ឃើញត្រង់ៗ ទោះបីជាដឹងថាមានវិធីជាច្រើនដែលការជំនួសបុគ្គលិករបស់មនុស្សដោយ AI អាចងាយនឹងបាត់បង់ក៏ដោយ។ ក្រុមហ៊ុនជាច្រើនបានខ្នះខ្នែងធ្វើសកម្មភាពបែបនេះ ហើយមិនបានគិតពិចារណាពីរបៀបធ្វើដូច្នេះទេ។ ជាលទ្ធផល ពួកគេច្រើនតែបង្កើតភាពរញ៉េរញ៉ៃច្រើនជាងអ្វីដែលពួកគេមាននៅលើដៃរបស់ពួកគេដើម្បីចាប់ផ្តើម។
ខ្ញុំចង់បញ្ជាក់ និងសង្កត់សំឡេងថា AI មិនមែនជា panacea ទេ។
និយាយទៅ វាមានឧបសគ្គដ៏ធំមួយអំពីភាពស្អាតស្អំ ហាក់ដូចជាការចោលអ្នកធ្វើការសម្រេចចិត្តដែលលំអៀងដោយមនុស្សជាមួយនឹង AI ដែលមិនលំអៀង។ ឧបសគ្គគឺថាអ្នកអាចគ្រាន់តែជំនួសសំណុំនៃភាពលំអៀងដែលមិនមានភាពលំអៀងទៅមួយផ្សេងទៀត។ តាមការចង្អុលបង្ហាញមុននេះ AI អាចមានភាពលំអៀងមិនចុះសម្រុង ហើយអាចធ្វើទៅលើភាពលំអៀងទាំងនោះ។ ការសន្មត់យ៉ាងម៉ឺងម៉ាត់ថាការផ្លាស់ប្តូរមនុស្សលម្អៀងសម្រាប់ AI ដែលមិនលំអៀងគឺមិនមែនជាអ្វីដែលវាត្រូវបានគេបំបែកនោះទេ។
សរុបមក នេះជាកិច្ចព្រមព្រៀងនៅពេលមើលបញ្ហាយ៉ាងតឹងរ៉ឹងពីកត្តាលំអៀង៖
- AI មិនមានការលំអៀងអ្វីឡើយ ហើយគិតថា ADM ដែលមានមូលដ្ឋានលើ AI ងាយស្រួលដាក់ពង្រាយ
- AI មានភាពលំអៀងដូចគ្នាទៅនឹងមនុស្សដែលត្រូវបានជំនួស ហើយដូច្នេះ ADM ដែលមានមូលដ្ឋានលើ AI កំពុងមានបញ្ហា
- AI ណែនាំពីភាពលំអៀងថ្មីដែលហួសពីមនុស្សដែលត្រូវបានជំនួស ហើយទំនងជានឹងធ្វើឱ្យអ្វីៗកាន់តែអាក្រក់ទៅតាមនោះ
- ដំបូងឡើយ AI ហាក់បីដូចជាល្អ ហើយបន្ទាប់មកបន្តិចម្តងៗ ចូលទៅក្នុងភាពលំអៀង
- ផ្សេងទៀត
យើងអាចស្រាយលទ្ធភាពទាំងនោះដោយសង្ខេប។
កំណែទីមួយគឺជាកំណែដ៏ល្អនៃអ្វីដែលអាចនឹងកើតឡើង។ AI មិនមានភាពលំអៀងទេ។ អ្នកដាក់ AI ចូលទៅក្នុងកន្លែង ហើយវាដំណើរការយ៉ាងអស្ចារ្យ។ ល្អសម្រាប់អ្នក! ជាការពិតណាស់ មនុស្សម្នាក់នឹងសង្ឃឹមថា អ្នកក៏មានមធ្យោបាយដោះស្រាយការផ្លាស់ទីលំនៅរបស់បុគ្គលិកមនុស្សផងដែរ ដោយសារតែការរួមបញ្ចូល AI ។
ក្នុងករណីទី XNUMX អ្នកដាក់ AI ហើយរកឃើញថា AI កំពុងបង្ហាញភាពលំអៀងដូចគ្នាដែលកម្មករមនុស្សមាន។ តើនេះអាចទៅជាយ៉ាងណា? មធ្យោបាយទូទៅនៃការធ្លាក់ចូលទៅក្នុងអន្ទាក់នេះគឺដោយប្រើ Machine Learning (ML) និង Deep Learning (DL) ដោយផ្អែកលើទិន្នន័យដែលប្រមូលបាននៃរបៀបដែលមនុស្សនៅក្នុងតួនាទីនេះបានធ្វើការសម្រេចចិត្តពីមុន។
ទុកពេលឱ្យខ្ញុំពន្យល់បន្តិច។
ML/DL គឺជាទម្រង់នៃការផ្គូផ្គងលំនាំគណនា។ វិធីសាស្រ្តធម្មតាគឺអ្នកប្រមូលផ្តុំទិន្នន័យអំពីកិច្ចការធ្វើការសម្រេចចិត្ត។ អ្នកបញ្ចូលទិន្នន័យទៅក្នុងម៉ូដែលកុំព្យូទ័រ ML/DL ។ គំរូទាំងនោះស្វែងរកលំនាំគណិតវិទ្យា។ បន្ទាប់ពីស្វែងរកគំរូបែបនេះ ប្រសិនបើរកឃើញនោះ ប្រព័ន្ធ AI នឹងប្រើលំនាំទាំងនោះនៅពេលជួបទិន្នន័យថ្មី។ នៅពេលបង្ហាញទិន្នន័យថ្មី គំរូដែលផ្អែកលើ "ទិន្នន័យចាស់" ឬទិន្នន័យប្រវត្តិសាស្រ្តត្រូវបានអនុវត្តដើម្បីបង្ហាញការសម្រេចចិត្តបច្ចុប្បន្ន។
ខ្ញុំគិតថាអ្នកអាចទាយបានថាវាទៅណា ប្រសិនបើមនុស្សដែលបានធ្វើកិច្ចការនេះអស់ជាច្រើនឆ្នាំមកហើយនោះបានបញ្ចូលភាពលំអៀងដែលមិនលំអៀងនោះគឺថាទិន្នន័យបានឆ្លុះបញ្ចាំងពីចំណុចនេះតាមវិធីដ៏ស្រទន់ ប៉ុន្តែសំខាន់។ ការផ្គូផ្គងគំរូនៃការគណនារបស់ម៉ាស៊ីន ឬការសិក្សាជ្រៅនឹងព្យាយាមធ្វើត្រាប់តាមទិន្នន័យតាមគណិតវិទ្យា។ មិនមានភាពដូចគ្នានៃសុភវិនិច្ឆ័យឬទិដ្ឋភាពមនោសញ្ចេតនាផ្សេងទៀតនៃការធ្វើគំរូក្នុងមួយផ្នែកនោះទេ។
ជាងនេះទៅទៀត អ្នកអភិវឌ្ឍន៍ AI ប្រហែលជាមិនដឹងពីអ្វីដែលកំពុងកើតឡើងនោះទេ។ គណិតវិទ្យាអាកខេន អាចនឹងបង្កការលំបាកក្នុងការបញ្ចេញភាពលំអៀងដែលលាក់ទុកឥឡូវនេះ។ អ្នកនឹងសង្ឃឹមយ៉ាងត្រឹមត្រូវ ហើយរំពឹងថាអ្នកអភិវឌ្ឍន៍ AI នឹងសាកល្បងសម្រាប់ភាពលំអៀងដែលអាចកប់បាន ទោះបីជាវាពិបាកជាងវាក៏ដោយ។ ឱកាសដ៏រឹងមាំមួយមានដែលថា ទោះបីជាមានការធ្វើតេស្តយ៉ាងទូលំទូលាយថានឹងមានភាពលំអៀងនៅតែបង្កប់នៅក្នុងគំរូដែលផ្គូផ្គងគំរូនៃ ML/DL ក៏ដោយ។
អ្វីដែលបានប្រាប់ អ្នកអាចនឹងបញ្ចប់ទៅជាការ៉េមួយវិញ។ ភាពលំអៀងដូចគ្នារបស់មនុស្សឥឡូវនេះត្រូវបានឆ្លុះបញ្ចាំងដោយការគណនានៅក្នុងប្រព័ន្ធ AI ។ អ្នកមិនបានលុបបំបាត់ការលំអៀងនោះទេ។
អាក្រក់ជាងនេះទៅទៀត អ្នកប្រហែលជាមិនសូវដឹងថា AI មានភាពលំអៀងទេ។ ក្នុងករណីមនុស្សជាធម្មតា អ្នកប្រហែលជានៅការពារខ្លួនថាមនុស្សមានការលំអៀងមិនចុះសម្រុង។ នេះគឺជាការរំពឹងទុកជាមូលដ្ឋាន។ ការប្រើប្រាស់ AI អាចបញ្ចុះបញ្ចូលអ្នកដឹកនាំឱ្យជឿថា ស្វ័យប្រវត្តិកម្មបានដកចេញនូវភាពលំអៀងរបស់មនុស្សគ្រប់ប្រភេទ។ ដូច្នេះហើយពួកគេកំពុងតែតាំងខ្លួនឯងថាបានបាញ់សម្លាប់ខ្លួនឯង។ ពួកគេបានកម្ចាត់មនុស្សដែលហាក់ដូចជាមិនលំអៀងដោយត្រូវបានជំនួសដោយ AI ដែលត្រូវបានគេគិតថាមិនមានភាពលំអៀងនោះ ហើយឥឡូវនេះបានដាក់ឱ្យប្រើប្រាស់ AI ដែលពោរពេញទៅដោយភាពលំអៀងដូចគ្នាដែលគេដឹងថាមានស្រាប់។
នេះអាចទទួលបានអ្វីដែលពិតជាឆ្លងភ្នែក។ អ្នកប្រហែលជាបានដករនាំងការពារផ្សេងទៀតដែលត្រូវបានប្រើជាមួយកម្មករមនុស្សដែលត្រូវបានបង្កើតឡើងដើម្បីស្វែងរក និងការពារការលេចចេញនូវភាពលំអៀងរបស់មនុស្សដែលបានរំពឹងទុករួចហើយនោះ។ AI ឥឡូវនេះមានការគ្រប់គ្រងដោយឥតគិតថ្លៃ។ គ្មានអ្វីនៅនឹងកន្លែងដើម្បីចាប់វាមុនពេលសម្ដែង។ បន្ទាប់មក AI អាចចាប់ផ្តើមនាំអ្នកទៅកាន់ផ្លូវដ៏អាក្រក់នៃការប្រមូលផ្តុំដ៏ធំនៃសកម្មភាពលំអៀង។
ហើយអ្នកស្ថិតក្នុងស្ថានភាពឆ្គាំឆ្គង និងប្រហែលជាទទួលខុសត្រូវដែលអ្នកធ្លាប់បានដឹងអំពីភាពលំអៀង ហើយឥឡូវនេះបានអនុញ្ញាតឱ្យភាពលំអៀងទាំងនោះធ្វើឱ្យមានការបំផ្លិចបំផ្លាញ។ ប្រហែលជារឿងមួយដែលមិនធ្លាប់ជួបប្រទះនឹងភាពលំអៀងដែលមិនគួរឱ្យជឿបែបនេះ ហើយភ្លាមៗនោះ AI ចេញមកក្រៅពណ៌ខៀវ។ អ្នកប្រហែលជាព្យាយាមដោះសារនេះជាមួយ "អ្នកដែលទាយ" ប្រភេទនៃការរំខាន (ប្រហែលជាមិនគួរឱ្យជឿ) ។ ប៉ុន្តែឥឡូវនេះ ដើម្បីរៀបចំ AI ដែលកំពុងធ្វើសកម្មភាពដែលមិនលំអៀងដូចពីមុន ជាការប្រសើរណាស់ លេសរបស់អ្នកកាន់តែស្តើងទៅៗ។
ភាពលំអៀងលើបញ្ហានេះ រួមបញ្ចូល AI ដែលបង្ហាញពីភាពលំអៀងដែលមិនធ្លាប់ជួបប្រទះពីមុនមក នៅពេលដែលមនុស្សកំពុងបំពេញកិច្ចការនេះ។ អ្នកអាចនិយាយបានថា នេះប្រហែលជាពិបាកជាងក្នុងការទប់ស្កាត់ព្រោះវាមានភាពលំអៀង "ថ្មី" ដែលក្រុមហ៊ុនមិនបានរកឃើញពីមុនមក។ ទោះយ៉ាងណាក៏ដោយ នៅទីបញ្ចប់ ការដោះសារប្រហែលជាមិនផ្តល់ឱ្យអ្នកនូវការធូរស្រាលច្រើននោះទេ។ ប្រសិនបើប្រព័ន្ធ AI បានចូលទៅក្នុងទឹកដីដែលគ្មានសីលធម៌ និងគ្មានច្បាប់ នោះសត្វក្ងានរបស់អ្នកអាចនឹងត្រូវបានចម្អិន។
ចំណុចមួយទៀតដែលត្រូវចងចាំនោះគឺថា AI អាចចាប់ផ្តើមដំណើរការល្អ ហើយបន្ទាប់មកវាចូលទៅក្នុងភាពលំអៀងដែលមិនសមហេតុផល។ នេះទំនងជាជាពិសេសនៅពេលដែលការប្រើប្រាស់ Machine Learning ឬ Deep Learning កើតឡើងនៅលើមូលដ្ឋានបន្ត ដើម្បីរក្សា AI ឱ្យទាន់សម័យ។ ថាតើ ML/DL កំពុងធ្វើការក្នុងពេលជាក់ស្តែង ឬធ្វើបច្ចុប្បន្នភាពជាទៀងទាត់ក៏ដោយ ការយកចិត្តទុកដាក់គួរតែថាតើ AI ប្រហែលជាកំពុងទាញយកទិន្នន័យដែលឥឡូវនេះមានភាពលំអៀង ហើយដែលពីមុនមិនមានវត្តមាន។
សម្រាប់អ្នកដឹកនាំដែលគិតថាពួកគេទទួលបានអាហារថ្ងៃត្រង់ដោយឥតគិតថ្លៃដោយគ្រវីដៃវេទមន្តដើម្បីជំនួសបុគ្គលិកដែលមានភាពលំអៀងជាមួយនឹង AI នោះពួកគេកំពុងស្ថិតក្នុងការភ្ញាក់ដឹងខ្លួនដ៏ឈ្លើយបំផុត។ សូមមើលការពិភាក្សារបស់ខ្ញុំអំពីសារៈសំខាន់នៃការផ្តល់អំណាចដល់អ្នកដឹកនាំជាមួយនឹងសិក្ខាបទនៃក្រមសីលធម៌ AI នៅ តំណភ្ជាប់នៅទីនេះ.
នៅចំនុចប្រសព្វនៃការពិភាក្សានេះ ខ្ញុំចង់ភ្នាល់ថា អ្នកពិតជាចង់បានឧទាហរណ៍ក្នុងពិភពពិតមួយចំនួន ដែលអាចបង្ហាញពីបញ្ហានៃការជំនួស (ឬមិន) ភាពលំអៀងរបស់មនុស្សជាមួយនឹងភាពលំអៀងដែលមិនមានមូលដ្ឋានលើ AI ។
ខ្ញុំរីករាយដែលអ្នកបានសួរ។
មានគំរូដ៏ពេញនិយមពិសេស និងប្រាកដប្រជាដែលនៅជិតបេះដូងខ្ញុំ។ អ្នកឃើញហើយ ក្នុងសមត្ថភាពរបស់ខ្ញុំក្នុងនាមជាអ្នកជំនាញលើ AI រួមទាំងផលប៉ះពាល់ខាងសីលធម៌ និងផ្នែកច្បាប់ ខ្ញុំត្រូវបានគេសួរជាញឹកញាប់ឱ្យកំណត់ឧទាហរណ៍ជាក់ស្តែងដែលបង្ហាញពីភាពលំបាកនៃក្រមសីលធម៌ AI ដូច្នេះ លក្ខណៈទ្រឹស្តីខ្លះនៃប្រធានបទអាចយល់បានកាន់តែងាយស្រួល។ ផ្នែកមួយដែលរំជើបរំជួលបំផុតដែលបង្ហាញឱ្យឃើញច្បាស់អំពីក្រមសីលធម៌ AI នេះគឺការមកដល់នៃរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដដែលមានមូលដ្ឋានលើ AI ។ វានឹងបម្រើជាករណីប្រើប្រាស់ងាយស្រួល ឬជាឧទាហរណ៍សម្រាប់ការពិភាក្សាយ៉ាងទូលំទូលាយលើប្រធានបទ។
ខាងក្រោមនេះជាសំណួរដែលគួរអោយចាប់អារម្មណ៍ដែលគួរពិចារណា៖ តើការមកដល់នៃរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដដែលមានមូលដ្ឋានលើ AI បំភ្លឺអ្វីអំពីភាពលំអៀងនៅក្នុង AI ហើយប្រសិនបើដូច្នេះ តើនេះបង្ហាញអ្វីខ្លះ?
ទុកពេលឱ្យខ្ញុំមួយភ្លែតដើម្បីស្រាយសំណួរ។
ជាដំបូង សូមចំណាំថា មិនមានអ្នកបើកបរមនុស្សពាក់ព័ន្ធនឹងរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដនោះទេ។ សូមចងចាំថារថយន្តដែលបើកបរដោយខ្លួនឯងពិតប្រាកដគឺត្រូវបានជំរុញតាមរយៈប្រព័ន្ធបើកបរ AI ។ មិនចាំបាច់មានអ្នកបើកបរមនុស្សនៅកង់នោះទេ ហើយក៏មិនមានការផ្តល់ឲ្យមនុស្សដើម្បីបើករថយន្តដែរ។ សម្រាប់ការគ្របដណ្តប់យ៉ាងទូលំទូលាយ និងបន្តរបស់ខ្ញុំនៃយានយន្តស្វយ័ត (AVs) និងជាពិសេសរថយន្តដែលបើកបរដោយខ្លួនឯង សូមមើល តំណភ្ជាប់នៅទីនេះ.
ខ្ញុំចង់បញ្ជាក់បន្ថែមទៀតថាតើវាមានន័យយ៉ាងម៉េចនៅពេលខ្ញុំនិយាយអំពីឡានបើកបរដោយខ្លួនឯង។
ស្វែងយល់ពីកម្រិតនៃរថយន្តបើកបរដោយខ្លួនឯង
ក្នុងនាមជាការបញ្ជាក់មួយរថយន្តបើកបរដោយខ្លួនឯងគឺជាប្រភេទមួយដែលអាយអេសបើកបររថយន្តដោយខ្លួនឯងហើយមិនមានជំនួយពីមនុស្សទេក្នុងពេលបើកបរ។
យានជំនិះគ្មានអ្នកបើកបរទាំងនេះត្រូវបានចាត់ទុកថាជាកម្រិតទី 4 និងកម្រិត 5 (សូមមើលការពន្យល់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ) ខណៈពេលដែលរថយន្តដែលតម្រូវឱ្យអ្នកបើកបរមនុស្សរួមគ្នាចែករំលែកការប្រឹងប្រែងបើកបរជាធម្មតាត្រូវបានចាត់ទុកថានៅកម្រិត 2 ឬកម្រិត 3 ។ រថយន្តដែលរួមគ្នាចែករំលែកភារកិច្ចបើកបរត្រូវបានពិពណ៌នាថាជាពាក់កណ្តាលស្វយ័ត ហើយជាធម្មតាមានភាពខុសគ្នានៃ កម្មវិធីបន្ថែមដោយស្វ័យប្រវត្តិដែលត្រូវបានគេហៅថា ADAS (Advanced Driver-Assistance Systems)។
នៅមិនទាន់មានរថយន្តបើកបរដោយខ្លួនឯងនៅកម្រិត ៥ នៅឡើយទេដែលយើងមិនទាន់ដឹងថាតើវានឹងអាចសម្រេចបានឬអត់ហើយតើវាត្រូវចំណាយពេលប៉ុន្មានដើម្បីទៅដល់ទីនោះ។
ទន្ទឹមនឹងនេះ កិច្ចខិតខំប្រឹងប្រែងកម្រិតទី 4 កំពុងព្យាយាមបន្តិចម្តងៗ ដើម្បីទទួលបានការអូសទាញមួយចំនួន ដោយឆ្លងកាត់ការសាកល្បងផ្លូវសាធារណៈតូចចង្អៀត និងជ្រើសរើស ទោះបីជាមានភាពចម្រូងចម្រាសលើថាតើការធ្វើតេស្តនេះគួរតែត្រូវបានអនុញ្ញាតក្នុងម្នាក់ៗក៏ដោយ (យើងទាំងអស់គ្នាគឺជាជ្រូកហ្គីណេដែលមានជីវិត ឬស្លាប់នៅក្នុងការពិសោធន៍មួយ។ កើតឡើងនៅលើផ្លូវហាយវេ និងផ្លូវរបស់យើង អ្នកខ្លះឈ្លោះគ្នា សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ).
ដោយសាររថយន្តពាក់កណ្តាលស្វ័យភាពតម្រូវឱ្យមានអ្នកបើកបរជាមនុស្សការអនុម័តប្រភេទរថយន្តទាំងនោះនឹងមិនខុសពីការបើកបរយានយន្តធម្មតាទេដូច្នេះមិនមានអ្វីថ្មីទេសម្រាប់និយាយអំពីប្រធានបទនេះ (ទោះបីជាអ្នកនឹងឃើញក៏ដោយ) ក្នុងពេលតែមួយចំនុចដែលបានធ្វើជាទូទៅអាចអនុវត្តបាន) ។
ចំពោះរថយន្តពាក់កណ្តាលស្វយ័តវាជាការសំខាន់ដែលសាធារណជនត្រូវដឹងជាមុនអំពីទិដ្ឋភាពគួរឱ្យព្រួយបារម្ភដែលកំពុងកើតឡើងនាពេលថ្មីៗនេះពោលគឺទោះបីអ្នកបើកបរមនុស្សទាំងនោះនៅតែបន្តបង្ហោះវីដេអូខ្លួនពួកគេដេកលង់លក់ក្នុងកង់រថយន្តកម្រិត ២ ឬលេខ ៣ ក៏ដោយ។ យើងទាំងអស់គ្នាត្រូវចៀសវាងកុំអោយវង្វេងស្មារតីជឿថាអ្នកបើកបរអាចយកការចាប់អារម្មណ៍របស់ពួកគេចេញពីភារកិច្ចបើកបរនៅពេលបើកបររថយន្តពាក់កណ្តាលស្វយ័ត។
អ្នកគឺជាអ្នកទទួលខុសត្រូវចំពោះសកម្មភាពបើកបររបស់យានយន្តដោយមិនគិតពីចំនួនស្វ័យប្រវត្តិកម្មដែលអាចត្រូវបានបោះចូលទៅក្នុងកម្រិត ២ ឬកម្រិត ៣ ។
រថយន្តបើកបរដោយខ្លួនឯង និង AI ជាមួយនឹងភាពលំអៀងមិនឆ្គង
សម្រាប់យានយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដកម្រិតទី ៤ និងទី ៥ នឹងមិនមានអ្នកបើកបរជាមនុស្សចូលរួមក្នុងការងារបើកបរឡើយ។
អ្នកកាន់កាប់ទាំងអស់នឹងក្លាយជាអ្នកដំណើរ។
អេអាយអេកំពុងធ្វើការបើកបរ។
ទិដ្ឋភាពមួយដែលត្រូវពិភាក្សាភ្លាមៗទាក់ទងនឹងការពិតដែលថាអេ។ អាយ។ អិ។ ពាក់ព័ន្ធនឹងប្រព័ន្ធបើកបរ AI សព្វថ្ងៃមិនងាយស្រួលទេ។ និយាយម៉្យាងទៀតអេអាយគឺទាំងអស់គ្នាជាកម្មវិធីរួមបញ្ចូលគ្នានៃកម្មវិធីនិងក្បួនដោះស្រាយដែលផ្អែកលើកុំព្យូទ័រហើយភាគច្រើនប្រាកដជាមិនអាចវែកញែកតាមរបៀបដែលមនុស្សអាចធ្វើបានឡើយ។
ហេតុអ្វីបានជាការសង្កត់ធ្ងន់បន្ថែមអំពីអេអាយមិនមានអារម្មណ៍?
ដោយសារតែខ្ញុំចង់គូសបញ្ជាក់ថានៅពេលពិភាក្សាអំពីតួនាទីរបស់ប្រព័ន្ធបើកបរ AI ខ្ញុំមិនបានបង្ហាញពីគុណសម្បត្តិរបស់មនុស្សទៅនឹង AI ទេ។ សូមមេត្តាជ្រាបថាមានទំនោរដែលកំពុងបន្តនិងមានគ្រោះថ្នាក់នាពេលបច្ចុប្បន្ននេះចំពោះមនុស្សវិទូ។ បើនិយាយអោយចំទៅមនុស្សកំពុងតែផ្តល់នូវមនោសញ្ចេតនាស្រដៀងនឹងមនុស្សទៅនឹងអេអាយអេសព្វថ្ងៃនេះទោះបីជាការពិតដែលមិនអាចប្រកែកបាននិងមិនអាចកាត់ថ្លៃបានថាពុំមាន AI បែបនេះនៅឡើយទេ។
ជាមួយនឹងការបំភ្លឺនោះអ្នកអាចស្មានថាប្រព័ន្ធបើកបរ AI នឹងមិនមាន“ ដឹង” ពីលក្ខណៈនៃការបើកបរ។ ការបើកបរនិងអ្វីទាំងអស់ដែលវាតម្រូវឱ្យមានកម្មវិធីជាផ្នែកមួយនៃផ្នែករឹងនិងផ្នែកទន់នៃឡានបើកបរដោយខ្លួនឯង។
សូមមុជចូលទៅក្នុងទិដ្ឋភាពជាច្រើនដែលបានមកលេងលើប្រធានបទនេះ។
ជាដំបូង វាជារឿងសំខាន់ដែលត្រូវដឹងថា មិនមែនរថយន្តដែលបើកបរដោយខ្លួនឯង AI ទាំងអស់សុទ្ធតែដូចគ្នានោះទេ។ ក្រុមហ៊ុនផលិតរថយន្តនីមួយៗ និងក្រុមហ៊ុនបច្ចេកវិទ្យាបើកបរដោយខ្លួនឯងកំពុងប្រើប្រាស់វិធីសាស្រ្តរបស់ខ្លួនក្នុងការរៀបចំរថយន្តដែលបើកបរដោយស្វ័យប្រវត្តិ។ ដូចនេះ វាពិបាកក្នុងការធ្វើសេចក្តីថ្លែងការណ៍ដ៏ទូលំទូលាយអំពីអ្វីដែលប្រព័ន្ធបើកបរ AI នឹងធ្វើឬមិនធ្វើ។
លើសពីនេះទៅទៀតនៅពេលណាដែលបញ្ជាក់ថាប្រព័ន្ធបើកបរអេអាយមិនធ្វើអ្វីជាក់លាក់ណាមួយនោះនៅពេលក្រោយនេះអាចត្រូវបានអ្នកអភិវឌ្developersន៍យកឈ្នះដែលតាមពិតកម្មវិធីកុំព្យូទ័រអាចធ្វើបាន។ មួយជំហានម្តង ៗ ប្រព័ន្ធបើកបរអេអាយអាយកំពុងត្រូវបានកែលម្អនិងពង្រីកបន្តិចម្តង ៗ ។ ការដាក់កំហិតដែលមានស្រាប់នៅថ្ងៃនេះប្រហែលជាលែងមាននៅក្នុងការបង្កើតឡើងវិញឬកំណែប្រព័ន្ធនាពេលអនាគត។
ខ្ញុំជឿជាក់ថាផ្តល់នូវការព្រមានតិចតួចគ្រប់គ្រាន់ដើម្បីបញ្ជាក់ពីអ្វីដែលខ្ញុំចង់ទាក់ទង។
ឥឡូវនេះ យើងត្រូវបានគេកំណត់ឱ្យធ្វើ ការជ្រមុជទឹកជ្រៅទៅក្នុងរថយន្តដែលបើកបរដោយខ្លួនឯង និងលទ្ធភាព AI ប្រកបដោយក្រមសីលធម៌ ដែលរួមបញ្ចូលការរុករក AI និងភាពលំអៀងដែលមិនឆ្ពោះទៅរក។
ចូរយើងប្រើឧទាហរណ៍ដែលងាយយល់។ រថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI កំពុងដំណើរការនៅលើផ្លូវសង្កាត់របស់អ្នក ហើយហាក់ដូចជាកំពុងបើកបរដោយសុវត្ថិភាព។ ដំបូងឡើយ អ្នកបានយកចិត្តទុកដាក់ជាពិសេសរាល់ពេលដែលអ្នកអាចមើលឃើញរថយន្តបើកបរដោយខ្លួនឯង។ យានជំនិះស្វយ័តនេះបានលេចធ្លោជាមួយនឹងឧបករណ៍ចាប់សញ្ញាអេឡិចត្រូនិចដែលរួមមានកាមេរ៉ាវីដេអូ គ្រឿងរ៉ាដា ឧបករណ៍ LIDAR និងអ្វីៗផ្សេងទៀត។ បន្ទាប់ពីជាច្រើនសប្តាហ៍នៃរថយន្តបើកបរដោយខ្លួនឯងបានធ្វើដំណើរជុំវិញសហគមន៍របស់អ្នក ឥឡូវនេះអ្នកស្ទើរតែមិនកត់សំគាល់វាទេ។ តាមដែលអ្នកបារម្ភ វាគ្រាន់តែជាឡានមួយទៀតនៅលើផ្លូវសាធារណៈដែលមមាញឹករួចទៅហើយ។
ក្រែងអ្នកគិតថាវាមិនអាចទៅរួច ឬមិនអាចយល់បានក្នុងការស៊ាំនឹងការឃើញរថយន្តដែលបើកបរដោយខ្លួនឯង ខ្ញុំបានសរសេរជាញឹកញាប់អំពីរបៀបដែលអ្នកស្រុកដែលស្ថិតក្នុងវិសាលភាពនៃការសាកល្បងរថយន្តបើកបរដោយខ្លួនឯងបានស៊ាំជាបណ្តើរៗដើម្បីឃើញរថយន្តដែលមានការរីកចម្រើន។ មើលការវិភាគរបស់ខ្ញុំនៅ តំណនេះនៅទីនេះ. អ្នកស្រុកជាច្រើននាក់នៅទីបំផុតបានផ្លាស់ប្តូរពីមាត់ស្រែកថ្ងូរ មកឥឡូវនេះបញ្ចេញនូវភាពអផ្សុកយ៉ាងទូលំទូលាយ ដើម្បីបានឃើញរថយន្តដែលបើកបរដោយខ្លួនឯងទាំងនោះ។
ប្រហែលជាមូលហេតុចំបងនៅពេលនេះ ដែលពួកគេអាចសម្គាល់ឃើញយានជំនិះស្វយ័តគឺដោយសារតែកត្តាឆាប់ខឹង និងការហួសចិត្ត។ ប្រព័ន្ធបើកបរ AI ដែលធ្វើឡើងដោយសៀវភៅធ្វើឱ្យប្រាកដថារថយន្តគោរពតាមការកំណត់ល្បឿន និងច្បាប់ផ្លូវទាំងអស់។ សម្រាប់អ្នកបើកបរដ៏មមាញឹកនៅក្នុងរថយន្តបើកបរដោយមនុស្សតាមបែបប្រពៃណីរបស់ពួកគេ អ្នកនឹងមានការធុញទ្រាន់នៅពេលដែលបានជាប់គាំងនៅពីក្រោយរថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI ដែលគោរពច្បាប់យ៉ាងតឹងរ៉ឹង។
នោះជាអ្វីមួយដែលយើងទាំងអស់គ្នាប្រហែលជាត្រូវទម្លាប់ធ្វើ ត្រឹមត្រូវ ឬខុស។
ត្រលប់ទៅរឿងនិទានរបស់យើង។
បង្ហាញថាក្តីបារម្ភមិនទំនងពីរចាប់ផ្តើមកើតឡើងអំពីរថយន្តដែលបើកដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI ដែលទទួលបានការស្វាគមន៍ជាទូទៅ៖
ក. កន្លែងដែល AI កំពុងជិះរថយន្តដែលបើកបរដោយខ្លួនឯងសម្រាប់ការជិះបានក្លាយទៅជាកង្វល់ដ៏គួរឱ្យព្រួយបារម្ភនៅក្នុងសហគមន៍ទាំងមូល។
ខ. របៀបដែល AI កំពុងព្យាបាលអ្នកថ្មើរជើងដែលកំពុងរង់ចាំដែលមិនមានផ្លូវត្រូវក៏ជាបញ្ហាដែលកំពុងកើនឡើងផងដែរ
ដំបូងឡើយ AI កំពុងតែជិះរថយន្តដែលបើកបរដោយខ្លួនឯងពេញទីក្រុងទាំងមូល។ អ្នកណាដែលចង់ស្នើសុំជិះរថយន្តដែលបើកដោយខ្លួនឯងនោះ ពិតជាមានឱកាសស្មើគ្នាក្នុងការហៅរថយន្តមួយនេះ។ បន្តិចម្ដងៗ AI បានចាប់ផ្តើមរក្សារថយន្តដែលបើកបរដោយខ្លួនឯងជាចម្បងនៅក្នុងផ្នែកមួយនៃទីក្រុង។ ផ្នែកនេះគឺជាអ្នកបង្កើតលុយកាន់តែច្រើន ហើយប្រព័ន្ធ AI ត្រូវបានកម្មវិធីដើម្បីព្យាយាម និងបង្កើនប្រាក់ចំណូលជាផ្នែកនៃការប្រើប្រាស់នៅក្នុងសហគមន៍។
សមាជិកសហគមន៍នៅក្នុងផ្នែកក្រីក្រនៃទីក្រុងទំនងជាមិនសូវមានលទ្ធភាពជិះរថយន្តដែលបើកបរដោយខ្លួនឯងនោះទេ។ នេះគឺដោយសារតែរថយន្តដែលបើកបរដោយខ្លួនឯងបាននៅឆ្ងាយជាង និងកំពុងធ្វើដំណើរក្នុងផ្នែកដែលមានប្រាក់ចំណូលខ្ពស់ជាងក្នុងតំបន់។ នៅពេលដែលសំណើមួយចូលមកពីផ្នែកឆ្ងាយនៃទីក្រុង សំណើណាមួយពីទីតាំងជិតដែលទំនងជានៅក្នុងផ្នែក "គួរឱ្យគោរព" នៃទីក្រុងនឹងទទួលបានអាទិភាពខ្ពស់ជាងនេះ។ នៅទីបំផុត លទ្ធភាពទទួលបានរថយន្តបើកបរដោយខ្លួនឯងនៅកន្លែងណាមួយក្រៅពីផ្នែកដ៏សម្បូរបែបនៃទីក្រុងគឺស្ទើរតែមិនអាចទៅរួចទេ ដែលគួរឱ្យហួសចិត្ត ដូច្នេះសម្រាប់អ្នកដែលរស់នៅក្នុងតំបន់ដែលខ្វះខាតធនធានឥឡូវនេះ។
អ្នកអាចអះអាងថា AI បានធ្លាក់ចុះមកលើទម្រង់នៃការរើសអើងប្រូកស៊ី (ក៏ត្រូវបានគេហៅជាញឹកញាប់ថាជាការរើសអើងដោយប្រយោល)។ AI មិនត្រូវបានរៀបចំឡើងដើម្បីជៀសវាងសង្កាត់ក្រីក្រទាំងនោះ។ ផ្ទុយទៅវិញ វា "បានរៀន" ដើម្បីធ្វើដូច្នេះតាមរយៈការប្រើប្រាស់ ML/DL ។
រឿងនេះគឺថាអ្នកបើកបរមនុស្សជិះកង់ត្រូវបានគេស្គាល់ថាធ្វើដូចគ្នា ទោះបីជាមិនចាំបាច់ទាំងស្រុងដោយសារតែមុំរកលុយក៏ដោយ។ មានអ្នកបើកបរដែលមានមនុស្សជិះមួយចំនួនដែលមានការលម្អៀងមិនសមរម្យអំពីការរើសអ្នកជិះនៅផ្នែកខ្លះនៃទីក្រុង។ នេះជាបាតុភូតដែលគេដឹងខ្លះៗ ហើយទីក្រុងបានដាក់ចេញនូវវិធីសាស្ត្រត្រួតពិនិត្យដើម្បីចាប់អ្នកបើកបរមនុស្សដែលធ្វើសកម្មភាពនេះ។ អ្នកបើកបរមនុស្សអាចជួបបញ្ហាក្នុងការអនុវត្តការជ្រើសរើសដែលមិនពេញចិត្ត
វាត្រូវបានគេសន្មត់ថា AI នឹងមិនធ្លាក់ចូលទៅក្នុងខ្សាច់រហ័សដូចគ្នានោះទេ។ មិនមានការត្រួតពិនិត្យឯកទេសណាមួយត្រូវបានបង្កើតឡើងដើម្បីតាមដានកន្លែងដែលរថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI នឹងទៅនោះទេ។ លុះក្រោយពីសមាជិកសហគមន៍ចាប់ផ្ដើមត្អូញត្អែរ ទើបថ្នាក់ដឹកនាំក្រុងដឹងថាមានអ្វីកើតឡើង។ សម្រាប់ព័ត៌មានបន្ថែមអំពីប្រភេទនៃបញ្ហាទូទាំងទីក្រុងទាំងនេះដែលយានយន្តស្វយ័ត និងរថយន្តបើកបរដោយខ្លួនឯងនឹងបង្ហាញ សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ ហើយដែលពិពណ៌នាអំពីការសិក្សាដែលដឹកនាំដោយសាកលវិទ្យាល័យ Harvard ដែលខ្ញុំបានសហការនិពន្ធលើប្រធានបទនេះ។
ឧទាហរណ៍នៃទិដ្ឋភាពរ៉ូមីងនៃរថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI បង្ហាញពីការចង្អុលបង្ហាញមុននេះថាអាចមានស្ថានភាពដែលនាំឱ្យមនុស្សមានភាពលំអៀងដែលការគ្រប់គ្រងត្រូវបានដាក់ឱ្យដំណើរការ ហើយថា AI ជំនួសអ្នកបើកបរមនុស្សទាំងនោះត្រូវបានទុកចោល។ ឥតគិតថ្លៃ។ ជាអកុសល AI អាចនឹងកើនឡើងបន្តិចម្តងៗនៅក្នុងភាពលំអៀងស្រដៀងគ្នា ហើយធ្វើដូច្នេះដោយគ្មានផ្លូវការពារគ្រប់គ្រាន់។
ឧទាហរណ៍ទីពីរពាក់ព័ន្ធនឹង AI ដែលកំណត់ថាតើត្រូវឈប់សម្រាប់ការរង់ចាំអ្នកថ្មើរជើងដែលមិនមានសិទ្ធិឆ្លងកាត់ផ្លូវនោះទេ។
អ្នកពិតជាបានបើកបរ ហើយបានជួបប្រទះនឹងអ្នកថ្មើរជើងដែលកំពុងរង់ចាំឆ្លងផ្លូវ ហើយពួកគេមិនទាន់មានសិទ្ធិធ្វើផ្លូវនោះទេ។ នេះមានន័យថាអ្នកមានឆន្ទានុសិទ្ធិក្នុងការថាតើត្រូវឈប់ហើយអនុញ្ញាតឱ្យពួកគេឆ្លងកាត់។ អ្នកអាចបន្តដោយមិនអនុញ្ញាតឱ្យពួកគេឆ្លងកាត់ ហើយនៅតែស្ថិតក្នុងច្បាប់បើកបរផ្លូវច្បាប់ពេញលេញនៃការធ្វើដូច្នេះ។
ការសិក្សាអំពីរបៀបដែលអ្នកបើកបរមនុស្សសម្រេចចិត្តឈប់ ឬមិនឈប់សម្រាប់អ្នកថ្មើរជើងបែបនេះ បានបង្ហាញថា ពេលខ្លះអ្នកបើកបរមនុស្សធ្វើការជ្រើសរើសដោយផ្អែកលើភាពលំអៀងដែលមិនសមហេតុផល។ អ្នកបើកបរមនុស្សអាចសម្លឹងមើលអ្នកថ្មើរជើង ហើយជ្រើសរើសមិនឈប់ ទោះបីជាពួកគេនឹងឈប់ក៏ដោយ ប្រសិនបើអ្នកថ្មើរជើងមានរូបរាងខុសគ្នា ដូចជាផ្អែកលើពូជសាសន៍ ឬភេទ។ ខ្ញុំបានពិនិត្យរឿងនេះនៅ តំណភ្ជាប់នៅទីនេះ.
ស្រមៃថារថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI ត្រូវបានកម្មវិធីដើម្បីដោះស្រាយជាមួយនឹងសំណួរថាតើត្រូវឈប់ឬមិនឈប់សម្រាប់អ្នកថ្មើរជើងដែលមិនមានផ្លូវត្រូវ។ នេះជារបៀបដែលអ្នកអភិវឌ្ឍន៍ AI សម្រេចចិត្តរៀបចំកិច្ចការនេះ។ ពួកគេបានប្រមូលទិន្នន័យពីម៉ាស៊ីនថតវីដេអូរបស់ទីក្រុង ដែលត្រូវបានដាក់នៅជុំវិញទីក្រុង។ ទិន្នន័យបង្ហាញពីអ្នកបើកបររបស់មនុស្សដែលឈប់សម្រាប់អ្នកថ្មើរជើងដែលមិនមានផ្លូវត្រូវ និងអ្នកបើកបរមនុស្សដែលមិនឈប់។ វាត្រូវបានប្រមូលទាំងអស់ទៅក្នុងសំណុំទិន្នន័យដ៏ធំមួយ។
ដោយប្រើ Machine Learning និង Deep Learning ទិន្នន័យត្រូវបានយកគំរូតាមការគណនា។ ប្រព័ន្ធបើកបរ AI បន្ទាប់មកប្រើម៉ូដែលនេះដើម្បីសម្រេចថាពេលណាត្រូវឈប់ ឬមិនឈប់។ ជាទូទៅ គំនិតនេះគឺថា អ្វីក៏ដោយដែលទំនៀមទំលាប់ក្នុងស្រុកមាន នោះជារបៀបដែល AI នឹងដឹកនាំរថយន្តដែលបើកបរដោយខ្លួនឯងបាន។
សម្រាប់ភាពភ្ញាក់ផ្អើលនៃអ្នកដឹកនាំទីក្រុង និងអ្នកស្រុក AI ជាក់ស្តែងបានជ្រើសរើសឈប់ ឬមិនឈប់ ដោយផ្អែកលើរូបរាងរបស់អ្នកថ្មើរជើង រួមទាំងពូជសាសន៍ និងភេទរបស់ពួកគេ។ ឧបករណ៍ចាប់សញ្ញានៃរថយន្តដែលបើកបរដោយខ្លួនឯងនឹងស្កេនអ្នកថ្មើរជើងដែលកំពុងរង់ចាំ បញ្ចូលទិន្នន័យនេះទៅក្នុងគំរូ ML/DL ហើយម៉ូដែលនឹងបញ្ចេញទៅ AI ថាតើត្រូវឈប់ ឬបន្ត។ គួរឲ្យសោកស្ដាយ ទីក្រុងនេះមានការលំអៀងអ្នកបើកបរមនុស្សច្រើនរួចទៅហើយ ហើយ AI ឥឡូវនេះកំពុងធ្វើត្រាប់តាមដូចគ្នា។
ដំណឹងល្អនោះគឺថា វាបានលើកឡើងនូវបញ្ហាមួយដែលស្ទើរតែគ្មាននរណាម្នាក់ធ្លាប់ដឹងថាមានពីមុនមក។ ដំណឹងអាក្រក់នោះគឺចាប់តាំងពី AI ត្រូវបានចាប់បានធ្វើបែបនេះ វាទទួលបានការស្តីបន្ទោសភាគច្រើន។ ឧទាហរណ៍នេះបង្ហាញថាប្រព័ន្ធ AI ប្រហែលជាគ្រាន់តែចម្លងពីភាពលំអៀងដែលមានស្រាប់របស់មនុស្សប៉ុណ្ណោះ។
សន្និដ្ឋាន
មានវិធីជាច្រើនដើម្បីព្យាយាម និងជៀសវាងការបង្កើត AI ដែលនៅខាងក្រៅច្រកទ្វារមានភាពលំអៀង ឬមានភាពលំអៀងតាមពេលវេលា។ វិធីសាស្រ្តមួយពាក់ព័ន្ធនឹងការធានាថាអ្នកអភិវឌ្ឍន៍ AI ដឹងពីការកើតឡើងនេះ ហើយដូច្នេះរក្សាពួកគេនៅលើម្រាមជើងរបស់ពួកគេដើម្បីរៀបចំកម្មវិធី AI ដើម្បីជៀសវាងបញ្ហានេះ។ ផ្លូវមួយទៀតមាន AI ត្រួតពិនិត្យខ្លួនឯងសម្រាប់អាកប្បកិរិយាគ្មានសីលធម៌ (សូមមើលការពិភាក្សារបស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ) និង/ឬមានបំណែក AI ផ្សេងទៀតដែលត្រួតពិនិត្យប្រព័ន្ធ AI ផ្សេងទៀតសម្រាប់អាកប្បកិរិយាគ្មានសីលធម៌ (ខ្ញុំបានគ្របដណ្តប់វានៅ តំណភ្ជាប់នៅទីនេះ).
ដើម្បីសង្ខេប យើងត្រូវដឹងថា មនុស្សអាចមានភាពលំអៀង ហើយថាពួកគេត្រូវដឹងពីដែនកំណត់របស់ពួកគេ។ ដូចគ្នាដែរ AI អាចមានភាពលំអៀង ហើយយើងត្រូវដឹងពីដែនកំណត់របស់វា។
សម្រាប់អ្នកដែលចូលចិត្តប្រកាន់យកក្រមសីលធម៌ AI ខ្ញុំសូមបញ្ចប់នៅពេលនេះជាមួយនឹងខ្សែភាពល្បីល្បាញមួយទៀតដែលអ្នករាល់គ្នាត្រូវតែដឹងរួចហើយ។ មានន័យថា សូមបន្តប្រើប្រាស់ និងចែករំលែកពីសារៈសំខាន់នៃ Ethical AI។ ហើយដោយការធ្វើដូច្នេះ ខ្ញុំនឹងនិយាយដោយថ្នមៗថា៖ «ទៅមុខធ្វើថ្ងៃរបស់ខ្ញុំ»។
ប្រភព៖ https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especially-deployed-when-human-biases-are-aplenty/