មេរៀនក្រមសីលធម៌ AI និងប្រព័ន្ធស្វយ័ត ប្រមូលបានពីជើងហោះហើរ Alaska Airlines នាពេលថ្មីៗនេះ ដែលជាកន្លែងដែលអ្នកបើកយន្តហោះ និងអ្នករួមដំណើរមិនយល់ស្របមុនពេលចេញដំណើរ ហើយបានជ្រើសរើសតាក់ស៊ីត្រឡប់ទៅស្ថានីយ ហើយទៅផ្លូវដាច់ដោយឡែករបស់ពួកគេ

ក្រុមហ៊ុនអាកាសចរណ៍មានព័ត៌មានថ្មីៗបន្តិច។

យើង​កំពុង​ស្ថិត​ក្នុង​វិបត្តិ​ជើង​ហោះហើរ​ក្នុង​រដូវ​ក្ដៅ។ អ្នកដំណើរដែលនឿយហត់ និងខកចិត្ត យល់ថាខ្លួនប្រឈមមុខនឹងការរំខានជើងហោះហើរគ្រប់ប្រភេទ និងការបង្ខូចកាលវិភាគរបស់ក្រុមហ៊ុនអាកាសចរណ៍។ ជើងហោះហើរត្រូវបានលុបចោលដោយមិនបានរំពឹងទុក។ ជើងហោះហើរត្រូវបានពន្យារពេល។ ក្លិនអ្នកដំណើរ។ ជាអកុសល មានករណីជាច្រើននៃអ្នកដំណើរដែលអនុញ្ញាតឱ្យមានកំហឹងទាំងនេះផ្ទុះឡើង ហើយយើងបានឃើញវីដេអូមេរោគជាច្រើននៃការប្រឈមមុខដាក់គ្នា ហើយពេលខ្លះមានការប៉ះទង្គិចគ្នាយ៉ាងខ្លាំង។

កម្រណាស់តើយើងរៀនអំពីជម្លោះរវាងអ្នកបើកបរនិងអ្នកបើកយន្តហោះ ដែលអាចកើតឡើងក្នុងពេលនៅក្នុងកាប៊ីន។

នោះពិតជាភ្ញាក់ផ្អើលណាស់។

ជាការពិត យើងមានការភ្ញាក់ផ្អើរដោយធម្មជាតិក្នុងការគិតថាអ្នកបើកបរយន្តហោះ និងអ្នកបើកបរយន្តហោះនឹងមានភាពមិនចុះសម្រុងគ្នាយ៉ាងធ្ងន់ធ្ងរក្នុងដំណាក់កាលណាមួយនៃការហោះហើរ។ ប្រសិនបើការខ្វែងគំនិតគ្នាទាក់ទងនឹងម៉ាកកាហ្វេណាដែលល្អបំផុតនោះ ការសន្មត់របស់យើងគឺថា នេះនឹងមិនប៉ះពាល់ដល់កិច្ចខិតខំប្រឹងប្រែងការងារដែលទាក់ទងនឹងការហោះហើរយន្តហោះនោះទេ។ អ្នក​ទាំង​ពីរ​នឹង​គ្រាន់តែ​បិទមាត់​មិន​មើល​មុខ​គ្នា​លើ​ប្រធានបទ​ដែល​ហាក់​ដូចជា​មិន​ពាក់ព័ន្ធ​នឹង​ការ​ហោះហើរ។ អាកប្បកិរិយាប្រកបដោយវិជ្ជាជីវៈ និងការហ្វឹកហ្វឺនពីឡុតដ៏យូរអង្វែងរបស់ពួកគេនឹងចាប់ផ្តើម ហើយពួកគេនឹងផ្តោតការយកចិត្តទុកដាក់របស់ពួកគេត្រឡប់ទៅលើយន្តហោះពិសេស។

ពិចារណាថាពេលណា ក ការមិនចុះសម្រុងនឹងវិជ្ជាជីវៈ អន្តរាគមន៍។

ខ្ញុំនឹងចែករំលែកយ៉ាងខ្លីជាមួយអ្នកនូវព័ត៌មានមួយដែលត្រូវបានផ្សព្វផ្សាយយ៉ាងទូលំទូលាយអំពីករណីថ្មីៗនៃអ្វីមួយដែលបានកើតឡើងក្នុងអំឡុងពេលហោះហើរនៅសហរដ្ឋអាមេរិកទាក់ទងនឹងការមិនចុះសម្រុងគ្នាដែលមានវិជ្ជាជីវៈនៅក្នុងកាប៊ីនយន្ដហោះ។

នេះត្រូវបានគេលើកឡើងជាចម្បងនៅទីនេះ ដូច្នេះយើងអាចស្វែងយល់អំពីប្រធានបទដែលពាក់ព័ន្ធដែលមានសារៈសំខាន់យ៉ាងខ្លាំងចំពោះវត្តមានរបស់ Artificial Intelligence (AI)។ អ្នកឃើញទេ វាអាចមានទម្រង់នៃការខ្វែងគំនិតគ្នាក្នុងវិជ្ជាជីវៈរវាងមនុស្ស មិនមែនត្រឹមតែមនុស្សនៅក្នុងការខ្វែងគំនិតគ្នារវាងមនុស្សទៅមនុស្សនោះទេ ប៉ុន្តែយើងក៏អាចមានរឿងស្រដៀងគ្នានេះកើតឡើងចំពេលដែលការទទួលយក AI និង ergo ដែលបណ្តាលឱ្យមានការខ្វែងគំនិតគ្នារវាងមនុស្ស និង AI ។ . ការពិចារណាអំពីក្រមសីលធម៌ AI គ្រប់ប្រភេទកើតឡើង។ សម្រាប់ការគ្របដណ្តប់យ៉ាងទូលំទូលាយ និងបន្តរបស់ខ្ញុំអំពីក្រមសីលធម៌ AI និងបញ្ហាក្រមសីលធម៌ AI សូមមើល តំណភ្ជាប់នៅទីនេះ និង តំណភ្ជាប់នៅទីនេះ, គ្រាន់តែដាក់ឈ្មោះពីរបី។

រៀបចំខ្លួនអ្នកសម្រាប់រឿងនិទានគួរឱ្យចាប់អារម្មណ៍។

ដូចដែលបានរាយការណ៍នៅក្នុងព័ត៌មានថ្មីៗនេះ ករណីនៃ "ការមិនចុះសម្រុងគ្នាក្នុងវិជ្ជាជីវៈ" ជាក់ស្តែងបានកើតឡើងក្នុងអំឡុងពេលជើងហោះហើរ Alaska Airline ដែលកំពុងធ្វើដំណើរពីទីក្រុង Washington ទៅ San Francisco ។ តាម​សេចក្តីរាយការណ៍​បាន​ឲ្យ​ដឹង​ថា ជើង​ហោះ​ហើរ​បាន​រើ​ចេញ​ពី​ខ្លោង​ទ្វារ​ចូល​មក​រង់ចាំ​នៅ​លើ​រថយន្ត​តាក់ស៊ី​ដើម្បី​សុំ​ការ​អនុញ្ញាត​ឱ្យ​តាក់ស៊ី​ឡើង​យន្តហោះ ។ ព្យុះមួយកំពុងដំណើរការ ហើយនាំឱ្យមានការពន្យារពេលហោះហើរជាងមួយម៉ោងកន្លះ។ ទីបំផុត​យន្តហោះ​បាន​វិល​ត្រឡប់​ទៅ​ច្រក​ទ្វារ​វិញ ដែល​អ្នក​ដំណើរ​ខ្លះ​អាច​នឹង​ស្មាន​ថា​ជា​ការ​ប្រុង​ប្រយ័ត្ន​សុវត្ថិភាព​ទាក់​ទង​នឹង​ព្យុះ។

តាមធ្វីតធឺផ្សេងៗ វាហាក់បីដូចជាអ្នកបើកយន្តហោះ និងអ្នកបើកយន្តហោះមានការឈ្លោះប្រកែកគ្នាដោយមើលមិនឃើញ អំឡុងពេលដែលពួកគេនៅទីនោះក្នុងកាប៊ីនយន្តហោះ ហើយបានសន្និដ្ឋានថា វិធីសាស្ត្រប្រុងប្រយ័ត្នបំផុតគឺការបោសសម្អាតជើងហោះហើរ ហើយត្រឡប់ទៅស្ថានីយវិញ។ . Tweets បានបង្ហាញថាប្រធានក្រុម និងមន្ត្រីទីមួយទំនងជាមិនអាចទាក់ទងគ្នាបានទេ។ ក្រោយមកក្រុមហ៊ុនអាកាសចរណ៍បានចេញសេចក្តីថ្លែងការណ៍ថាស្ថានភាពមិនល្អ (ស្ថានភាពនេះមិនត្រូវបានបញ្ជាក់ឬពន្យល់ច្បាស់លាស់ទេ) មន្ត្រីជើងហោះហើរទាំងពីរត្រូវបានវាយតម្លៃដោយអ្នកគ្រប់គ្រង និងចាត់ទុកថាសមនឹងហោះហើរ បុគ្គលិកត្រូវបានផ្លាស់ប្តូរ ហើយការហោះហើរបានបញ្ចប់។ ហើយក្រោយមកបានទៅដល់ San Francisco ។

ក្នុងន័យមួយ ប្រសិនបើតាមពិតអ្នកបើកយន្តហោះ និងអ្នកបើកយន្តហោះមានការខ្វែងគំនិតគ្នាក្នុងវិជ្ជាជីវៈ ដូចជាថាតើយន្តហោះបានត្រៀមខ្លួនរួចរាល់សម្រាប់ការហោះហើរ ឬថាតើហានិភ័យនៃការហោះហើរឆ្លងកាត់ព្យុះស្ថិតនៅក្នុងជួរសុវត្ថិភាពសមរម្យ អ្នកដំណើរទាំងនោះគួរតែធូរស្រាល និង អរគុណដែលយន្តហោះត្រូវបានត្រឡប់ទៅច្រកទ្វារ។ មានសុវត្ថិភាពជាងការសោកស្តាយ។ ការពន្យាពេលបន្ថែមគឺសមនឹងការកាត់បន្ថយហានិភ័យដែលត្រូវបានចាត់ទុកថាជាការធ្វើដំណើរដ៏លំបាក ឬមិនអំណោយផល។

មនុស្សមួយចំនួនប្រហែលជាភ្ញាក់ផ្អើលដែលការខ្វែងគំនិតគ្នាបែបវិជ្ជាជីវៈអាចកើតឡើង។

យើងប្រហែលជាមានចំណាប់អារម្មណ៍មិនពិតដែលថាអ្វីគ្រប់យ៉ាងដែលកើតឡើងនៅក្នុងកាប៊ីនយន្ដហោះគឺមានភាពច្បាស់លាស់ទាំងស្រុង និងសរសេរយ៉ាងល្អិតល្អន់។ គ្រប់ទម្រង់នៃការសំរេចចិត្តរបស់មនុស្សហាក់បីដូចជាមិនដំណើរការ។ ដោយផ្អែកលើគំនូសតាងដែលបានគណនាយ៉ាងច្បាស់លាស់ និងហ្មត់ចត់ ជើងហោះហើរមិនអីទេក្នុងការបន្ត ឬមិនដំណើរការ។ វាមិនអាចមានការខ្វែងគំនិតគ្នាទេ នៅពេលដែលឧបករណ៍ទាំងមូល និង caboodle ត្រូវបានគេគិតថាផ្អែកលើការគណនាដែលមិនអាចប្រកែកបាននៃការពិត និងតួលេខ។

នោះមិនមែនជាការពិតពេញលេញនៃបញ្ហានោះទេ។ ប្រាកដណាស់ មានពិធីការ និងការត្រួតពិនិត្យ និងសមតុល្យគ្រប់ប្រភេទ ប៉ុន្តែនេះមិនច្របាច់ចេញទាំងអស់ iota នៃការវិនិច្ឆ័យរបស់មនុស្សទេ។ អ្នកបើកយន្តហោះ និងអ្នកបើកយន្តហោះនៅតែអនុវត្តការវិនិច្ឆ័យរបស់មនុស្ស។ ជាសំណាងល្អ ការវិនិច្ឆ័យរបស់មនុស្សនេះត្រូវបានគោរពដោយការហោះហើរជាច្រើនឆ្នាំ។ ហាងឆេងគឺថាអ្នកបើកយន្តហោះ និងអ្នកបើកយន្តហោះនៅក្នុងយន្តហោះដឹកអ្នកដំណើរពាណិជ្ជកម្មមានបទពិសោធន៍នៃការហោះហើរពីមុន ហើយអាចប្រើប្រាស់បានយ៉ាងងាយនូវហេតុផល និងការវិនិច្ឆ័យស៊ីជម្រៅជាច្រើនឆ្នាំរបស់ពួកគេដែលទាក់ទងនឹងការគ្រប់គ្រងការហោះហើរ។

ដោយសារតួនាទីដ៏គួរឱ្យកត់សម្គាល់នៃការវិនិច្ឆ័យរបស់មនុស្ស យើងអាចគិតទុកជាមុនដោយសមហេតុផលថា ពេលខ្លះអ្នកបើកបរនិងអ្នកបើកយន្តហោះនឹងមានការខ្វែងគំនិតគ្នាក្នុងវិជ្ជាជីវៈ។ ភាគច្រើនទំនងជាមានការខ្វែងគំនិតគ្នាតិចតួចណាស់។ អ្នកបើកយន្តហោះ និងអ្នកបើកយន្តហោះសម្រាប់ជើងហោះហើរប្រចាំថ្ងៃ ទំនងជាត្រូវបានតម្រឹមយ៉ាងល្អទៅនឹងការគិតទុកជាមុននៃពេលវេលា។ មានតែពេលដែលសេណារីយ៉ូហោះហើរអាចទៅក្រៅព្រំដែនធម្មតាប៉ុណ្ណោះ ទើបយើងរំពឹងថានឹងមានភាពតានតឹងកាន់តែខ្លាំងឡើង។

បើ​មាន​ការ​យល់​ឃើញ​ខុស​គ្នា​ខ្លាំង​រវាង​អ្នក​ទាំង​ពីរ ខ្ញុំ​ហ៊ាន​និយាយ​ថា យើង​ចង់​ឲ្យ​គេ​លុប​ចោល។

ស្រមៃមើលស្ថានភាពដែលអ្នកបើកយន្តហោះចង់បន្ត ប៉ុន្តែអ្នកបើកយន្តហោះយល់ថាហានិភ័យខ្ពស់ពេក។ គ្រាន់តែមាន copilot kowtow ទៅកាន់អ្នកបើកយន្តហោះ ហាក់ដូចជាមិនចង់បាន។ អ្នកបើកយន្តហោះគឺជាការត្រួតពិនិត្យ និងសមតុល្យទៅនឹងអ្វីដែលអ្នកបើកយន្តហោះអាចនឹងគិតចង់ធ្វើ។ សម្រាប់អ្នកដែលចង់ឱ្យអ្នកបើកយន្តហោះបិទមាត់ ហើយធ្វើសកម្មភាពដោយមិនគិតអ្វីទាំងអស់ចំពោះអ្នកបើកយន្តហោះ នោះមិនមែនជាការធានាច្រើននោះទេ។ អ្នកបើកយន្តហោះមិនមែនគ្រាន់តែជា "អ្នកបើកយន្តហោះ" ទំនេរដែលចូលទៅក្នុងរូបភាពតែនៅពេលដែលអ្នកបើកយន្តហោះគ្មានសមត្ថភាពទាំងស្រុងនោះទេ។ នោះជាការយល់ខុសអំពីតម្លៃនៃការមានអ្នកបើកបរ និងអ្នកបើកបរនៅក្នុងកាប៊ីនយន្ដហោះ។

មានមុំផ្សេងទៀតចំពោះរឿងនេះ។

ពិចារណាករណីរបស់អ្នកបើកយន្តហោះដែលមិនជឿថាការហោះហើរគួរតែដំណើរការ ហើយទន្ទឹមនឹងនោះអ្នកបើកយន្តហោះគឺ Gung-ho អំពីការឡើងលើអាកាស។ ចុះយ៉ាងណាវិញ? តាម​ឋានានុក្រម​ដែល​បាន​រំពឹង​ទុក អ្នក​បើក​យន្តហោះ​ត្រូវ​បាន​គេ​សន្មត់​ថា​មាន​ជ័យជំនះ​លើ​អ្នក​បើក​តាម​ធម្មតា​។ តួនាទីដែលបានកំណត់ក្នុងការជាអ្នកទទួលខុសត្រូវចម្បង ធ្វើឱ្យអ្នកបើកយន្តហោះកាន់តែធំ បើមិនដូច្នេះទេគឺស្មើគ្នា។ ជាធម្មតា អ្នកបើកយន្តហោះមានពេលវេលាហោះហើរសរុបច្រើនជាងអ្នកបើកយន្តហោះ ហើយ ergo ពីឡុតត្រូវបានសន្មតថាតាមឋានានុក្រមដើម្បីពន្យារការចង់បានរបស់អ្នកបើកយន្តហោះ (នៅពេលមានហេតុផល)។

ក្នុងករណីណាក៏ដោយ ខ្ញុំគិតថា យើងទាំងអស់គ្នាអាចយល់ស្របថា ការជ្រើសរើសមិនហោះហើរ គឺជាជម្រើសដែលមានហានិភ័យតិចជាងការសម្រេចចិត្តហោះហើរ។ នៅពេលដែលយន្តហោះឡើងលើអាកាស កម្រិតហានិភ័យកើនឡើងយ៉ាងខ្លាំងបើប្រៀបធៀបទៅនឹងការហោះហើរលើដីដែលមានស្ថេរភាពធម្មតា។ ជើងហោះហើរពាណិជ្ជកម្មតាមទម្លាប់ដែលគ្រាន់តែតាក់ស៊ីត្រឡប់ទៅស្ថានីយដោយមិនចាំបាច់ឡើងលើអាកាស នឹងក្លាយជាដំណោះស្រាយប្រកបដោយភាពស្និទ្ធស្នាលបំផុតចំពោះការជជែកវែកញែកដ៏ក្តៅគគុកអំពីការហោះហើរ។

ចូរប្តូរវេនគ្នា ហើយប្រើព័ត៌មានដ៏គួរឱ្យភ្ញាក់ផ្អើលនេះ សម្រាប់គោលបំណងខុសគ្នាទាំងស្រុង ប៉ុន្តែអាចទាក់ទងបាន។

យើងកំពុងមានជាបណ្តើរៗក្នុងចំណោមពួកយើងនូវប្រេវ៉ាឡង់នៃប្រព័ន្ធស្វយ័តដែលមានមូលដ្ឋានលើ AI ។ ពេលខ្លះ AI ដំណើរការកម្មវិធីដូចដែលវាធ្លាប់មាន។ AI ធ្វើអ្វីគ្រប់យ៉ាងពី A ដល់ Z ហើយយើងអាចសន្និដ្ឋានថាវាជា AI ដែលមានស្វ័យភាពពេញលេញ ឬជិតដូច្នេះ។ ក្នុងករណីផ្សេងទៀត យើងអាចមាន AI ដែលធ្វើអន្តរកម្មជាមួយ និងក្នុងកម្រិតខ្លះត្រូវបានកម្មវិធីឱ្យពឹងផ្អែកលើការមានមនុស្សក្នុងរង្វង់។

ខ្ញុំចង់ផ្តោតទៅលើបញ្ហានៃប្រព័ន្ធស្វយ័ត ឬពាក់កណ្តាលស្វយ័តដែលមានមូលដ្ឋានលើ AI ដែលពីដំណើរទៅមានមនុស្សនៅក្នុងរង្វិលជុំ។ AI និង​មនុស្ស​មាន​ចេតនា​រួម​គ្នា​ហើយ​សន្មត់​ថា​ត្រូវ​ធ្វើ​ការ​ជាមួយ​គ្នា​។ ពួក​គេ​ជា​ក្រុម​ក្នុង​ការ​បំពេញ​កិច្ចការ​ជាក់លាក់​មួយ​នៅ​នឹង​ដៃ។ AI តែម្នាក់ឯងមិនត្រូវបានគេសន្មត់ថាធ្វើសកម្មភាពលើកិច្ចការនោះទេ។ AI ត្រូវតែមានអន្តរកម្មជាមួយមនុស្សក្នុងរង្វង់ដែលបានកំណត់។

ខ្ញុំលើកយកចរិតលក្ខណៈនេះ ដើម្បីបែងចែកពីស្ថានភាពដែលមនុស្សនៅក្នុងរង្វង់ត្រូវបានចាត់ទុកថាជាមុខសញ្ញាស្រេចចិត្ត។ ជាទូទៅ AI ត្រូវបានផ្តល់ឱ្យដោយឥតគិតថ្លៃ។ ប្រសិនបើ AI ជ្រើសរើសប្រើប្រាស់មនុស្ស ដូច្នេះត្រូវធ្វើវា។ មិន​មាន​តម្រូវ​ការ​ដែល AI ត្រូវ​ប៉ះ​មូលដ្ឋាន​ជាមួយ ឬ​ធ្វើ​ការ​ដៃ​ជាមួយ​មនុស្ស​ដែល​បាន​កំណត់​នោះ​ទេ។ ការ​វិភាគ​ដែល​ខ្ញុំ​រៀប​នឹង​និយាយ​គឺ​ពិត​ជា​ទាក់​ទង​នឹង​ប្រភេទ​នោះ។ ស្រេចចិត្ត ការរៀបចំអន្តរកម្ម ប៉ុន្តែវាមិនមែនជាអ្វីដែលខ្ញុំកំពុងជំរុញជាពិសេសនៅក្នុងការពិភាក្សាពិសេសនេះទេ។

មិនអីទេ យើងមានកិច្ចការមួយចំនួនដែលមនុស្ស និង AI នឹងធ្វើការជាមួយគ្នា ដោយមិនអាចបំបែកចេញពីគ្នាទៅវិញទៅមកបាន។ ក្នុងន័យអរូបី យើងមានមនុស្សអង្គុយមួយកៅអី និងប្រព័ន្ធ AI អង្គុយនៅកៅអីអមជាមួយ។ ខ្ញុំនិយាយនេះដោយថ្ពាល់ព្រោះយើងមិនបង្ខាំងការពិភាក្សានេះចំពោះមនុស្សយន្តទេ ជាឧទាហរណ៍ ប្រហែលជាកំពុងអង្គុយនៅកៅអី។ ខ្ញុំនិយាយប្រៀបធៀបទៅនឹងគំនិតដែលថា AI គឺនៅកន្លែងណាមួយដែលចូលរួមក្នុងកិច្ចការ ហើយមនុស្សក៏ដូចគ្នាដែរ។ ខាងរាងកាយ កន្លែងលាក់ខ្លួនរបស់ពួកគេមិនមានសារៈសំខាន់ជាពិសេសចំពោះការពិភាក្សានោះទេ។

អ្នក​ប្រហែល​ជា​មិន​ប្រាកដ​ថា​ពេល​ណា​កាលៈទេសៈ​បែប​នេះ​អាច​នឹង​កើត​ឡើង។

ងាយស្រួលបំផុត។

នៅពេលក្រោយ ខ្ញុំនឹងពិភាក្សាអំពីការមកដល់នៃយានយន្តស្វយ័ត និងរថយន្តដែលបើកបរដោយស្វ័យប្រវត្តិ។ នៅកម្រិតស្វ័យភាពជាក់លាក់ AI និងមនុស្សត្រូវបានគេសន្មត់ថាធ្វើការជាមួយគ្នា។ AI អាច​នឹង​កំពុង​បើក​រថយន្ត ហើយ​ស្នើ​ឲ្យ​មនុស្ស​គ្រប់គ្រង​ការ​បើកបរ។ មនុស្សប្រហែលជាកំពុងបើកឡាន ហើយបើកដំណើរការ AI ដើម្បីគ្រប់គ្រង។ ពួកគេ​កំពុង​ប្តូរ​វេន​នៅ​កន្លែង​គ្រប់គ្រង​ការ​បើកបរ។

លើសពីនេះទៀត ការរចនាមួយចំនួនមាន AI សកម្មគ្រប់ពេលវេលា (ឬលុះត្រាតែបិទ) ដូចជា AI តែងតែរួចរាល់។ ជាងនេះទៅទៀត AI អាចនឹងធ្វើអន្តរាគមន៍ដោយផ្ទាល់ ទោះបីជាគ្មានមនុស្សសួរក៏ដោយ អាស្រ័យលើស្ថានភាពដែលកំពុងលាតត្រដាង។ ឧបមាថាមនុស្សហាក់ដូចជាបានដេកលក់នៅកង់។ ដោយសារមនុស្សហាក់ដូចជាមិនអាចដំណើរការ AI បានទេ (ដោយសារតែមនុស្សកំពុងដេក) AI អាចនឹងត្រូវបានកម្មវិធីដើម្បីគ្រប់គ្រងពីមនុស្ស។

ការរចនាមួយចំនួននាំ AI និងមនុស្សចូលទៅក្នុងវិធីសាស្រ្តបើកបរពីរ។ AI កំពុងបើកបរ ហើយមនុស្សកំពុងបើកបរ។ ឬប្រសិនបើអ្នកចង់ មនុស្សកំពុងបើកបរ ហើយ AI ក៏កំពុងបើកបរផងដែរ។ ពួកគេម្នាក់ៗបើកឡាន។ ខ្ញុំ​ប្រដូច​រថយន្ត​នេះ​ទៅ​នឹង​រថយន្ត​ដែល​បំពាក់​ដោយ​ម៉ាស៊ីន​ពិសេស ដែល​ប្រហែល​ជា​អ្នក​បាន​ប្រើ​ពេល​ទទួល​ការ​បណ្តុះបណ្តាល​អ្នក​បើកបរ ហើយ​មាន​ពីរ​ឈុត​នៃ​ការ​គ្រប់​គ្រង​ការ​បើកបរ​ក្នុង​រថយន្ត មួយ​សម្រាប់​អ្នក​បើក​បរ​សិស្ស និង​មួយ​សម្រាប់​គ្រូ​បង្រៀន​បើកបរ។

នោះគ្រាន់តែជាឧទាហរណ៍មួយនៃការកំណត់ដែល AI និងមនុស្សអាចធ្វើការរួមគ្នាលើកិច្ចការមួយ។ លទ្ធភាពទាំងអស់មាន។ យានជំនិះស្វយ័តប្រភេទផ្សេងទៀតអាចត្រូវបានរៀបចំស្រដៀងគ្នា ដូចជាយន្តហោះ យន្តហោះគ្មានមនុស្សបើក នាវាមុជទឹក កប៉ាល់លើដី រថភ្លើងជាដើម។ យើង​មិន​ចាំ​បាច់​គិត​តែ​ពី​ការ​កំណត់​រថយន្ត និង​ការ​ដឹក​ជញ្ជូន​ទេ។ ស្រមៃមើលដែនវេជ្ជសាស្រ្ត និងការវះកាត់ដែលកំពុងត្រូវបានអនុវត្តរួមគ្នាដោយវេជ្ជបណ្ឌិត និងប្រព័ន្ធ AI ។ បញ្ជីគឺគ្មានទីបញ្ចប់។

ខ្ញុំស្ទើរតែមានអារម្មណ៍ថាចង់សំដៅទៅលើរឿងកំប្លែងដ៏គ្រោតគ្រាតបែបបុរាណអំពីមនុស្ស និង AI ដែលដើរចូលទៅក្នុងបារជាមួយគ្នា។ វាពិតជាសើចសម្រាប់អ្នកដែលចូលទៅក្នុង AI ។

ជាក់ស្តែង ចូរយើងត្រលប់ទៅការផ្តោតអារម្មណ៍របស់មនុស្ស និងប្រព័ន្ធ AI ដែលកំពុងធ្វើការរួមគ្នាលើកិច្ចការដែលបានផ្តល់ឱ្យ។ ជាដំបូង ខ្ញុំចង់ជៀសវាង anthropomorphizing AI ដែលជាអ្វីដែលខ្ញុំនឹងសង្កត់ធ្ងន់។ AI មិន​មាន​មនោសញ្ចេតនា​ទេ។ សូមរក្សាវាទុកក្នុងចិត្ត។

នេះជាអ្វីដែលត្រូវពិចារណា៖ តើ​មនុស្ស​ក្នុង​រង្វង់​ដែល​បាន​កំណត់​តែង​តែ​មាន​ការ​ព្រមព្រៀង​ទាំងស្រុង​ជាមួយ AI ដែល​សហការ​ជា​ក្រុម​ឬ?

សម្រាប់កិច្ចការដ៏ស្មុគស្មាញណាមួយ វាហាក់ដូចជាមិនទំនងដែលថាមនុស្ស និង AI នឹងមានភាពពេញលេញ ហើយតែងតែស្ថិតក្នុងការចាក់សោរ និងជំហាន។ មនុស្ស​នៅ​ក្នុង​ឱកាស​មួយ​ចំនួន​ដែល​អាច​នឹង​មិន​យល់​ស្រប​ជាមួយ AI ។ យើង​អាច​យក​ការ​សន្មត់​នោះ​ទៅ​ធនាគារ។

ខ្ញុំចង់ឱ្យអ្នកពិចារណាផងដែរអំពីលទ្ធភាពដ៏គួរឱ្យភ្ញាក់ផ្អើលនេះផងដែរ៖ តើ AI តែងតែស្ថិតក្នុងការព្រមព្រៀងទាំងស្រុងជាមួយនឹងមនុស្សដែលបានកំណត់ក្នុងរង្វង់ទេ?

ជា​ថ្មី​ម្តង​ទៀត សម្រាប់​កិច្ចការ​ស្មុគស្មាញ​ណា​មួយ វា​ហាក់​ដូច​ជា​អាច​យល់​បាន​ថា AI នឹង​មិន​ចុះ​សម្រុង​នឹង​មនុស្ស​ក្នុង​ឱកាស​មួយ​ចំនួន។ ប្រសិនបើអ្នកកំពុងងាកទៅរកគំនិតដែលថា AI ត្រូវតែខុសជានិច្ច ខណៈពេលដែលមនុស្សត្រូវតែត្រឹមត្រូវជានិច្ច នោះអ្នកនឹងមានប្រាជ្ញាក្នុងការគិតឡើងវិញនូវការសន្និដ្ឋានដ៏ប្រញាប់ប្រញាល់នោះ។ ស្រមៃមើលរថយន្តដែលមានមនុស្ស និង AI រួមគ្នាបើកបររថយន្តពាក់កណ្តាលស្វ័យប្រវត្តិ។ មនុស្ស​តម្រង់​ទៅ​ជញ្ជាំង​ឥដ្ឋ។ ហេតុអ្វី? យើងមិនដឹងទេ ប្រហែលជាមនុស្សស្រវឹង ឬបានដេកលក់ ប៉ុន្តែយើងដឹងថា ការបុកជញ្ជាំងឥដ្ឋមិនមែនជាគំនិតល្អទេ អ្វីៗផ្សេងទៀតគឺស្មើគ្នា។ AI អាច​នឹង​រក​ឃើញ​គ្រោះ​មហន្តរាយ​ដែល​នឹង​មក​ដល់ ហើយ​ព្យាយាម​គេច​ចេញ​ពី​ឧបសគ្គ​ដែល​នឹង​មក​ដល់។

ទាំងអស់បានប្រាប់, យើងនឹងមានលទ្ធភាពផ្សេងគ្នានៃ AI និងមនុស្សមិនយល់ស្របជាមួយគ្នា។ មធ្យោបាយមួយទៀតដែលនិយាយដូចគ្នាគឺមនុស្ស និង AI មិន​ចុះ​សម្រុង​នឹង​គ្នា។ ចំណាំថាខ្ញុំមិនចង់ឱ្យការចាត់ថ្នាក់នៃ AI-and-human ធៀបនឹង human-and-AI ដើម្បីណែនាំអ្វីទាំងអស់អំពីទិសដៅ ឬភាពអាចជឿជាក់បាននៃការខ្វែងគំនិតគ្នា។

កម្មករ​ទាំង​ពីរ​នាក់​ម្នាក់​ជា​មនុស្ស និង​ម្នាក់​ទៀត​ជា​អាយ.អាយ.

យើង​អាច​ប្រកាស​ជា​មុន​ថា​នៅ​ពេល​ដែល​ការ​មិន​ចុះ​សម្រុង​គ្នា​កើត​ឡើង​រវាង AI និង​មនុស្ស​ដែល​បាន​ផ្តល់​ឱ្យ​នោះ យើង​នឹង​ប្រកាស​ជា​មុន​ថា​មនុស្ស​ឈ្នះ​លើ AI ។ បើនិយាយដូច្នេះ គំរូឧទាហរណ៍របស់ខ្ញុំអំពីឡានដែលបើកចូលជញ្ជាំងឥដ្ឋ ហាក់ដូចជារារាំងយើងថា មនុស្សតែងតែត្រូវ។

ផ្ទុយទៅវិញ យើងអាចជ្រើសរើសធ្វើការប្រកាសជាមុនថា នៅពេលណាដែលមានការខ្វែងគំនិតគ្នាកើតឡើង យើងនឹងកំណត់ជាមុនថា AI ត្រឹមត្រូវ ហើយមនុស្សខុស។ នេះ​ក៏​មិន​មែន​ជា​បទ​ប្បញ្ញត្តិ​ដែល​អាច​យល់​បាន​ទូទៅ​ដែរ។ ស្រមៃមើលរថយន្តដែល AI មានកំហុសផ្នែកទន់ ឬកំហុសមួយចំនួន ហើយ AI កំពុងព្យាយាមកាច់ចង្កូតរថយន្តចេញពីផ្លូវ ហើយចូលទៅក្នុងប្រឡាយ។ ដោយសន្មតថាអ្វីៗផ្សេងទៀតស្មើគ្នា មនុស្សគួរតែអាចយកឈ្នះលើសកម្មភាពបើកបរ AI នេះ និងការពារយានជំនិះពីការចុះចតនៅក្នុងជ្រោះ។

ចូរយើងធ្វើការសង្ខេបខ្លីៗអំពីរឿងនេះ៖

  • តើមនុស្សនៅក្នុងរង្វង់តែងតែមានកិច្ចព្រមព្រៀងទាំងស្រុងជាមួយ AI ដែរឬទេ? ចម្លើយ: លេខ
  • តើ AI តែងតែមានកិច្ចព្រមព្រៀងទាំងស្រុងជាមួយមនុស្សក្នុងរង្វង់ទេ? ចម្លើយ: ទេ.
  • តើ​មនុស្ស​ក្នុង​រង្វង់​តែងតែ​ត្រឹមត្រូវ​បើ​ប្រៀបធៀប​នឹង AI? ចម្លើយ: មិន​ចាំបាច់។
  • តើ AI តែងតែត្រឹមត្រូវក្នុងការប្រៀបធៀបទៅនឹងមនុស្សក្នុងរង្វង់ទេ? ចម្លើយ៖ មិនចាំបាច់ទេ។.

អ្នកពិតជាអាចរៀបចំ AI ដែលត្រូវចាត់ទុកតាមលំនាំដើមថាជា "ខុស" ឬភាគីទន់ខ្សោយ ដូច្នេះហើយតែងតែបង្វែរមនុស្សនៅពេលមានការខ្វែងគំនិតគ្នាកើតឡើង។ ដូចគ្នានេះដែរ អ្នកអាចដំឡើង AI ដើម្បីសន្មតថា AI ត្រូវបានចាត់ទុកថា "ត្រឹមត្រូវ" នៅពេលដែលមនុស្សមិនយល់ស្របជាមួយ AI ។ ខ្ញុំ​ចង់​បញ្ជាក់​ថា យើង​អាច​ធ្វើ​តាម​កម្មវិធី​បាន​ប្រសិន​បើ​យើង​ចង់​ធ្វើ​ដូច្នេះ។ ខ្ញុំ​អះអាង​ថា ជា​ទូទៅ នេះ​មិន​មែន​តែង​តែ​កើត​ឡើង​នោះ​ទេ។ ប្រាកដណាស់មានការកំណត់ដែលយើងមិនដឹងជាមុនថាតើ AI គឺ "ត្រឹមត្រូវ" ឬមនុស្ស "ត្រឹមត្រូវ" នៅក្នុងលក្ខខណ្ឌនៃការជ្រើសរើសឆ្ពោះទៅរកមួយ ឬមួយផ្សេងទៀតលើការខ្វែងគំនិតគ្នាទាក់ទងនឹងកិច្ចការដែលបានផ្តល់ឱ្យ។

ខ្ញុំបាននាំអ្នកទៅកាន់សំណួរសំខាន់ និងស្មុគស្មាញខ្លាំង។

តើ​យើង​គួរ​ធ្វើ​យ៉ាង​ណា​នៅ​ពេល​ដែល​ការ​ខ្វែង​គំនិត​គ្នា​រវាង​មនុស្ស​ក្នុង​រង្វង់​និង AI (ឬ​ក៏​យើង​អាច​និយាយ​ថា​វា​ជា​រវាង AI និង​មនុស្ស​ក្នុង​រង្វង់)?

កុំព្យាយាមគេចពីសំណួរ។

អ្នក​ខ្លះ​អាច​នឹង​ប្រកែក​ថា​វា​នឹង​មិន​កើត​ឡើង​ទេ ប៉ុន្តែ​ដូច​ដែល​ខ្ញុំ​បាន​ដាក់​ចេញ​ក្នុង​ឧទាហរណ៍​របស់​ខ្ញុំ​អំពី​រថយន្ត វា​ប្រាកដ​ជា​អាច​កើត​ឡើង។ អ្នក​ខ្លះ​ប្រហែល​ជា​ប្រកែក​ថា​មនុស្ស​ពិត​ជា​ពូកែ​ជាង ហើយ​ត្រូវ​តែ​ជា​អ្នក​ឈ្នះ​ការ​មិន​ចុះ​សម្រុង​គ្នា។ ឧទាហរណ៍​របស់​ខ្ញុំ​អំពី​រថយន្ត និង​ជញ្ជាំង​ឥដ្ឋ​នោះ​បាន​ធ្វើ​ឲ្យ​ធ្លាក់​ចុះ។ មានអ្នកគាំទ្រ AI ដែលអាចទទូចថា AI ត្រូវតែជាអ្នកឈ្នះ ដោយសារតែការយកឈ្នះលើអារម្មណ៍របស់មនុស្ស និងការគិតបែបអន្ទះអន្ទែងដោយមនុស្សគិតខុសឆ្គងទាំងនោះ។ ជា​ថ្មី​ម្តង​ទៀត គំរូ​ផ្សេង​ទៀត​របស់​ខ្ញុំ​ដែល​បង្ហាញ​ពី​រថយន្ត​ដែល​ចូល​ទៅ​ក្នុង​ប្រឡាយ​បាន​កាត់​បន្ថយ​ការ​អះអាង​នោះ។

នៅក្នុងពិភពពិត AI និងមនុស្សនឹងខ្វែងគំនិតគ្នា សូម្បីតែនៅពេលដែលអ្នកទាំងពីរត្រូវបាននាំយកមកក្នុងស្ថានភាពជាក្រុមមួយ ដើម្បីបំពេញកិច្ចការរួមគ្នាមួយ។ វានឹងកើតឡើង។ យើងមិនអាចដាក់ក្បាលរបស់យើងនៅក្នុងខ្សាច់ ហើយធ្វើពុតថាវានឹងមិនកើតឡើងនោះទេ។

យើង​បាន​ឃើញ​ថា​មនុស្ស​ដែល​បើក​យន្តហោះ​មាន​ការ​ខ្វែង​គំនិត​គ្នា​ជាក់​ស្តែង។ អរគុណណាស់ដែលពួកគេបានយល់ព្រមមិនយល់ស្របដូច្នេះវាហាក់ដូចជា។ ពួកគេបាននាំយន្តហោះត្រឡប់ទៅស្ថានីយវិញ។ ពួក​គេ​បាន​រក​ឃើញ​មធ្យោបាយ​ដើម្បី​ដោះស្រាយ​ការ​ខ្វែង​គំនិត។ ដំណោះស្រាយចំពោះការមិនចុះសម្រុងគ្នារបស់ពួកគេដំណើរការបានល្អ បើប្រៀបធៀបទៅនឹងប្រសិនបើពួកគេបានទៅឈ្លោះគ្នាក្នុងកាប៊ីនយន្តហោះ ឬប្រហែលជាហោះទៅលើអាកាស ហើយបន្តការប្រយុទ្ធគ្នាទៅវិញទៅមក។ នោះ​ជា​សេណារីយ៉ូ​ដ៏​សោកសៅ​ដែល​មិន​អាច​ដោះស្រាយ​បាន ហើយ​យើង​អាច​ដឹង​គុណ​មិន​បាន​កើត​ឡើង។

អនុញ្ញាតឱ្យខ្ញុំផ្តល់បញ្ជីរបស់ខ្ញុំនូវវិធីផ្សេងៗដែលការខ្វែងគំនិតគ្នារវាង AI និង human-in-the-loop (ឬ human-in-the-loop និង AI) អាចត្រូវបានដោះស្រាយ៖

  • AI និង​មនុស្ស​រួម​គ្នា​ធ្វើ​ការ​ចេញ​ទៅ​ក្រៅ (មិត្តភាព​ឬ​អត់)
  • មនុស្សឈ្នះលើ AI តាមលំនាំដើម
  • តាមលំនាំដើម AI យកឈ្នះលើមនុស្ស
  • ដំណោះស្រាយថេរដែលបានកំណត់ទុកជាមុនមួយចំនួនទៀត ឈ្នះតាមលំនាំដើម
  • មនុស្ស​ភាគី​ទី​បី​ត្រូវ​បាន​បញ្ជូល​គ្នា ហើយ​ការ​បង្ហាញ​របស់​ពួកគេ​មាន​ឥទ្ធិពល​លើ​ភាគី
  • AI ភាគីទីបីត្រូវបានបញ្ជូលគ្នា ហើយការចង្អុលបង្ហាញរបស់វាមានលើភាគី
  • មនុស្សភាគីទីបីជំនួសមនុស្សដែលមានស្រាប់ អ្វីៗដំណើរការជាថ្មី
  • AI ភាគីទីបីជំនួស AI ដែលមានស្រាប់ អ្វីៗដំណើរការជាថ្មី
  • មនុស្សភាគីទីបីជំនួស AI ដែលមានស្រាប់ អ្វីៗដំណើរការជាថ្មី (ឥឡូវនេះពីមនុស្សទៅមនុស្ស)
  • AI ភាគីទីបីជំនួសមនុស្សដែលមានស្រាប់ អ្វីៗដំណើរការជាថ្មី (ឥឡូវ AI-to-AI)
  • ផ្សេងទៀត

ទាំង​នោះ​គឺ​ជា​បរិបូរណ៍​សក្ដិសម​នៃ​ការ​ត្រូវ​បាន​ពន្លា​។

មុននឹងចូលទៅក្នុងសាច់ និងដំឡូងមួយចំនួនបន្ថែមទៀតអំពីការពិចារណាអំពីព្រៃ និងរោមចៀមដែលជាមូលដ្ឋានអំពីរបៀបដោះស្រាយជាមួយ AI និងការមិនចុះសម្រុងគ្នារបស់មនុស្ស យើងសូមដាក់ចេញនូវមូលដ្ឋានគ្រឹះបន្ថែមមួយចំនួនលើប្រធានបទសំខាន់ៗយ៉ាងជ្រាលជ្រៅ។ យើងត្រូវស្វែងយល់ដោយសង្ខេបអំពីក្រមសីលធម៌ AI និងជាពិសេសការមកដល់នៃ Machine Learning (ML) និង Deep Learning (DL)។

អ្នកប្រហែលជាដឹងយ៉ាងច្បាស់ថា សំឡេងខ្លាំងបំផុតមួយនាពេលបច្ចុប្បន្ននេះនៅក្នុងវិស័យ AI និងសូម្បីតែនៅខាងក្រៅវិស័យ AI មានការស្រែកឡើងសម្រាប់ភាពស្រដៀងគ្នានៃ Ethical AI កាន់តែខ្លាំង។ សូមក្រឡេកមើលថាតើវាមានន័យយ៉ាងណាក្នុងការសំដៅទៅលើ AI Ethics និង Ethical AI ។ លើសពីនេះ យើងនឹងស្វែងយល់ពីអត្ថន័យរបស់ខ្ញុំ នៅពេលដែលខ្ញុំនិយាយអំពី Machine Learning និង Deep Learning។

ផ្នែកជាក់លាក់មួយ ឬផ្នែកនៃក្រមសីលធម៌ AI ដែលកំពុងទទួលបានការចាប់អារម្មណ៍ពីប្រព័ន្ធផ្សព្វផ្សាយជាច្រើនរួមមាន AI ដែលបង្ហាញពីភាពលំអៀង និងភាពមិនស្មើគ្នា។ អ្នកប្រហែលជាដឹងហើយថា នៅពេលដែលយុគសម័យចុងក្រោយនៃ AI បានចាប់ផ្តើម មានការសាទរយ៉ាងខ្លាំងចំពោះអ្វីដែលមនុស្សមួយចំនួនហៅថា អាយអេសដើម្បីភាពល្អ. ជាអកុសល យើងចាប់ផ្តើមធ្វើសាក្សីដោយភាពរំភើបរីករាយ អាយអេសសម្រាប់អាក្រក់. ជាឧទាហរណ៍ ប្រព័ន្ធសម្គាល់មុខដែលមានមូលដ្ឋានលើ AI ជាច្រើនត្រូវបានបង្ហាញថាមានផ្ទុកនូវភាពលំអៀងជាតិសាសន៍ និងលម្អៀងយេនឌ័រ ដែលខ្ញុំបានពិភាក្សានៅ តំណភ្ជាប់នៅទីនេះ.

ខំប្រឹងទប់ទល់ អាយអេសសម្រាប់អាក្រក់ កំពុងដំណើរការយ៉ាងសកម្ម។ ក្រៅពីស្រែកថ្ងូរ ផ្នែកច្បាប់ ការខិតខំប្រឹងប្រែងក្នុងការទប់ទល់នឹងការប្រព្រឹត្តខុស វាក៏មានការជំរុញយ៉ាងសំខាន់ឆ្ពោះទៅរកការទទួលយកក្រមសីលធម៌ AI ដើម្បីកែតម្រូវភាពអាក្រក់របស់ AI ។ គំនិតនេះគឺថាយើងគួរតែទទួលយក និងគាំទ្រគោលការណ៍សីលធម៌ AI សំខាន់ៗសម្រាប់ការអភិវឌ្ឍន៍ និងការអនុវត្តរបស់ AI ដើម្បីធ្វើដូច្នេះដើម្បីកាត់បន្ថយ។ អាយអេសសម្រាប់អាក្រក់ ហើយក្នុងពេលដំណាលគ្នាផ្សព្វផ្សាយ និងផ្សព្វផ្សាយការពេញចិត្ត អាយអេសដើម្បីភាពល្អ.

តាមគំនិតដែលពាក់ព័ន្ធ ខ្ញុំជាអ្នកតស៊ូមតិក្នុងការព្យាយាមប្រើ AI ជាផ្នែកនៃដំណោះស្រាយចំពោះបញ្ហា AI ដោយប្រយុទ្ធនឹងភ្លើងក្នុងរបៀបនៃការគិតនោះ។ ជាឧទាហរណ៍ យើងអាចបញ្ចូលសមាសធាតុ Ethical AI ទៅក្នុងប្រព័ន្ធ AI ដែលនឹងត្រួតពិនិត្យពីរបៀបដែល AI ដែលនៅសល់កំពុងធ្វើ ហើយដូច្នេះវាអាចចាប់យកការខិតខំប្រឹងប្រែងរើសអើងណាមួយក្នុងពេលជាក់ស្តែង សូមមើលការពិភាក្សារបស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ. យើងក៏អាចមានប្រព័ន្ធ AI ដាច់ដោយឡែកដែលដើរតួជាប្រភេទនៃម៉ូនីទ័រ AI Ethics ។ ប្រព័ន្ធ AI ដើរតួជាអ្នកត្រួតពិនិត្យដើម្បីតាមដាន និងរកឃើញនៅពេលដែល AI មួយផ្សេងទៀតកំពុងចូលទៅក្នុងទីជ្រៅបំផុតដែលគ្មានសីលធម៌ (សូមមើលការវិភាគរបស់ខ្ញុំអំពីសមត្ថភាពបែបនេះនៅ តំណភ្ជាប់នៅទីនេះ).

បន្តិចទៀតនេះ ខ្ញុំនឹងចែករំលែកជាមួយអ្នកនូវគោលការណ៍ទូទៅមួយចំនួនដែលស្ថិតនៅក្រោមក្រមសីលធម៌ AI ។ មានបញ្ជីប្រភេទទាំងនេះជាច្រើនអណ្តែតនៅជុំវិញទីនេះ និងទីនោះ។ អ្នកអាចនិយាយបានថា មិនទាន់មានបញ្ជីឯកវចនៈនៃការអំពាវនាវជាសកល និងការស្របគ្នានៅឡើយ។ នោះ​ជា​ដំណឹង​អកុសល។ ដំណឹងល្អនោះគឺថា យ៉ាងហោចណាស់មានបញ្ជីសីលធម៌ AI ដែលអាចរកបានរួចរាល់ ហើយពួកគេមានទំនោរស្រដៀងគ្នា។ ទាំងអស់បានប្រាប់ នេះបង្ហាញថាតាមរយៈទម្រង់នៃការបញ្ចូលគ្នាប្រកបដោយហេតុផលនៃប្រភេទដែលយើងកំពុងស្វែងរកវិធីរបស់យើងឆ្ពោះទៅរកភាពសាមញ្ញទូទៅនៃអ្វីដែល AI Ethics មាន។

ជាដំបូង សូមនិយាយដោយសង្ខេបនូវសិក្ខាបទនៃក្រមសីលធម៌ AI រួមមួយចំនួន ដើម្បីបង្ហាញពីអ្វីដែលគួរតែជាការពិចារណាដ៏សំខាន់សម្រាប់នរណាម្នាក់ដែលបង្កើត បង្កើត ឬប្រើប្រាស់ AI ។

ជាឧទាហរណ៍ ដូចមានចែងដោយបុរីវ៉ាទីកង់ ទីក្រុងរ៉ូមអំពាវនាវឱ្យមានក្រមសីលធម៌ AI ហើយដូចដែលខ្ញុំបានគ្របដណ្តប់ស៊ីជម្រៅ តំណភ្ជាប់នៅទីនេះទាំងនេះគឺជាគោលការណ៍សីលធម៌ AI ចម្បងចំនួនប្រាំមួយដែលបានកំណត់របស់ពួកគេ៖

  • តម្លាភាព: ជាគោលការណ៍ ប្រព័ន្ធ AI ត្រូវតែអាចពន្យល់បាន។
  • បញ្ចូល៖ តម្រូវការរបស់មនុស្សគ្រប់រូបត្រូវតែយកមកពិចារណា ដើម្បីឲ្យមនុស្សគ្រប់រូបទទួលបានអត្ថប្រយោជន៍ ហើយបុគ្គលទាំងអស់អាចទទួលបានលក្ខខណ្ឌល្អបំផុតដើម្បីបង្ហាញពីខ្លួនឯង និងអភិវឌ្ឍ។
  • ទំនួលខុសត្រូវ: អ្នកដែលរចនា និងដាក់ពង្រាយការប្រើប្រាស់ AI ត្រូវតែដំណើរការដោយការទទួលខុសត្រូវ និងតម្លាភាព
  • មិនលំអៀង៖ កុំបង្កើត ឬធ្វើសកម្មភាពដោយលំអៀង ការពារភាពត្រឹមត្រូវ និងសេចក្តីថ្លៃថ្នូររបស់មនុស្ស
  • ភាពជឿជាក់៖ ប្រព័ន្ធ AI ត្រូវតែអាចដំណើរការដោយភាពជឿជាក់
  • សុវត្ថិភាព និងឯកជនភាព៖ ប្រព័ន្ធ AI ត្រូវតែដំណើរការដោយសុវត្ថិភាព និងគោរពភាពឯកជនរបស់អ្នកប្រើប្រាស់។

ដូចដែលបានបញ្ជាក់ដោយក្រសួងការពារជាតិសហរដ្ឋអាមេរិក (DoD) នៅក្នុងរបស់ពួកគេ។ គោលការណ៍សីលធម៌សម្រាប់ការប្រើប្រាស់បញ្ញាសិប្បនិម្មិត ហើយដូចដែលខ្ញុំបានគ្របដណ្តប់ស៊ីជម្រៅ តំណភ្ជាប់នៅទីនេះនេះគឺជាគោលការណ៍សីលធម៌ AI ចម្បងចំនួនប្រាំមួយរបស់ពួកគេ៖

  • ទទួលខុសត្រូវ: បុគ្គលិក DoD នឹងអនុវត្តកម្រិតនៃការវិនិច្ឆ័យ និងការថែទាំសមស្រប ខណៈពេលដែលនៅតែទទួលខុសត្រូវចំពោះការអភិវឌ្ឍន៍ ការដាក់ពង្រាយ និងការប្រើប្រាស់សមត្ថភាព AI ។
  • សមភាព៖ នាយកដ្ឋាននឹងចាត់វិធានការដោយចេតនា ដើម្បីកាត់បន្ថយភាពលំអៀងដោយអចេតនានៅក្នុងសមត្ថភាព AI ។
  • អាចតាមដានបាន៖ សមត្ថភាព AI របស់នាយកដ្ឋាននឹងត្រូវបានបង្កើតឡើង និងដាក់ឱ្យប្រើប្រាស់ ដែលបុគ្គលិកពាក់ព័ន្ធមានការយល់ដឹងសមស្របអំពីបច្ចេកវិទ្យា ដំណើរការអភិវឌ្ឍន៍ និងវិធីសាស្រ្តប្រតិបត្តិការដែលអនុវត្តចំពោះសមត្ថភាព AI រួមទាំងវិធីសាស្រ្តតម្លាភាព និងសវនកម្ម ប្រភពទិន្នន័យ និងនីតិវិធីរចនា និងឯកសារ។
  • អាចជឿទុកចិត្តបាន: សមត្ថភាព AI របស់នាយកដ្ឋាននឹងមានការប្រើប្រាស់ច្បាស់លាស់ និងច្បាស់លាស់ ហើយសុវត្ថិភាព សុវត្ថិភាព និងប្រសិទ្ធភាពនៃសមត្ថភាពទាំងនោះនឹងត្រូវឆ្លងកាត់ការធ្វើតេស្ត និងការធានានៅក្នុងការប្រើប្រាស់ដែលបានកំណត់នៅទូទាំងវដ្តជីវិតរបស់ពួកគេ។
  • អាចគ្រប់គ្រងបាន៖ នាយកដ្ឋាននឹងរចនា និងវិស្វកម្មសមត្ថភាព AI ដើម្បីបំពេញមុខងារដែលបានគ្រោងទុក ខណៈពេលដែលមានសមត្ថភាពក្នុងការរកឃើញ និងជៀសវាងផលវិបាកដែលមិនចង់បាន និងសមត្ថភាពក្នុងការផ្តាច់ ឬបិទប្រព័ន្ធដែលបានដាក់ពង្រាយ ដែលបង្ហាញពីអាកប្បកិរិយាអចេតនា។

ខ្ញុំក៏បានពិភាក្សាផងដែរអំពីការវិភាគសមូហភាពផ្សេងៗនៃគោលការណ៍សីលធម៌ AI រួមទាំងការគ្របដណ្តប់លើសំណុំដែលបង្កើតឡើងដោយអ្នកស្រាវជ្រាវដែលបានពិនិត្យ និងបង្រួមខ្លឹមសារនៃគោលការណ៍សីលធម៌ AI ជាតិ និងអន្តរជាតិជាច្រើននៅក្នុងក្រដាសដែលមានចំណងជើងថា "ទេសភាពសកលនៃគោលការណ៍ណែនាំសីលធម៌ AI" (បោះពុម្ពផ្សាយ ក្នុង ធម្មជាតិ) ហើយការគ្របដណ្តប់របស់ខ្ញុំរុករកនៅ តំណភ្ជាប់នៅទីនេះដែលនាំទៅដល់បញ្ជីគន្លឹះនេះ៖

  • តម្លាភាព
  • យុត្តិធម៌ និងយុត្តិធម៌
  • ភាពមិនអាក្រក់
  • ការទទួលខុសត្រូវ
  • ភាពឯកជន
  • អត្ថប្រយោជន៍
  • សេរីភាព និងស្វ័យភាព
  • ការជឿទុកចិត្ត
  • និរន្តរភាព
  • សេចក្តីថ្លៃថ្នូរ
  • សាមគ្គីភាព

ដូចដែលអ្នកអាចទាយដោយផ្ទាល់ ការព្យាយាមកំណត់ចំណុចជាក់លាក់នៃគោលការណ៍ទាំងនេះអាចជារឿងពិបាកធ្វើណាស់។ កាន់តែពិសេសជាងនេះទៅទៀត ការខិតខំប្រឹងប្រែងដើម្បីបង្វែរគោលការណ៍ដ៏ទូលំទូលាយទាំងនោះទៅជាអ្វីដែលជាក់ស្តែង និងលម្អិតគ្រប់គ្រាន់ដើម្បីប្រើប្រាស់នៅពេលបង្កើតប្រព័ន្ធ AI ក៏ជាចំណុចពិបាកមួយក្នុងការបំបែក។ វាជាការងាយស្រួលក្នុងការធ្វើការគ្រវីដៃខ្លះៗអំពីអ្វីដែល AI Ethics សិក្ខាបទគឺ និងរបៀបដែលពួកគេគួរត្រូវបានសង្កេតជាទូទៅ ខណៈពេលដែលវាជាស្ថានភាពស្មុគស្មាញជាងនៅក្នុង AI coding ដែលត្រូវតែជាកៅស៊ូពិតប្រាកដដែលជួបនឹងផ្លូវ។

គោលការណ៍ក្រមសីលធម៌ AI នឹងត្រូវប្រើប្រាស់ដោយអ្នកអភិវឌ្ឍន៍ AI រួមជាមួយនឹងអ្នកដែលគ្រប់គ្រងកិច្ចខិតខំប្រឹងប្រែងក្នុងការអភិវឌ្ឍន៍ AI និងសូម្បីតែអ្នកដែលនៅទីបំផុតអនុវត្ត និងថែទាំប្រព័ន្ធ AI ។ ភាគីពាក់ព័ន្ធទាំងអស់នៅទូទាំងវដ្តជីវិត AI នៃការអភិវឌ្ឍន៍ និងការប្រើប្រាស់ត្រូវបានពិចារណាក្នុងវិសាលភាពនៃការគោរពតាមបទដ្ឋានដែលត្រូវបានបង្កើតឡើងនៃ Ethical AI ។ នេះគឺជាការគូសបញ្ជាក់ដ៏សំខាន់មួយចាប់តាំងពីការសន្មត់ធម្មតាគឺថា "មានតែអ្នកសរសេរកូដ" ឬអ្នកដែលកម្មវិធី AI ប៉ុណ្ណោះដែលត្រូវប្រកាន់ខ្ជាប់នូវគោលគំនិតសីលធម៌របស់ AI ។ ដូចដែលបានបញ្ជាក់រួចមកហើយ វាត្រូវការភូមិមួយដើម្បីបង្កើត និងអនុវត្ត AI ហើយភូមិទាំងមូលត្រូវតែគោរព និងគោរពតាមសិក្ខាបទ AI ។

យើងក៏ត្រូវប្រាកដថាយើងនៅលើទំព័រដូចគ្នាអំពីលក្ខណៈនៃ AI នាពេលបច្ចុប្បន្ននេះ។

មិនមាន AI ណាមួយដែលប្រកបដោយមនោសញ្ចេតនាទេ។ យើងមិនមាននេះទេ។ យើង​មិន​ដឹង​ថា​តើ​ AI ​អាច​នឹង​កើត​ឡើង​ឬ​អត់​នោះ​ទេ។ គ្មាននរណាម្នាក់អាចទស្សន៍ទាយបានច្បាស់ថា តើយើងនឹងសម្រេចបាន AI អារម្មណ៍ ឬថាតើ AI អារម្មណ៍នឹងកើតឡើងដោយអព្ភូតហេតុដោយឯកឯងក្នុងទម្រង់នៃ supernova នៃការយល់ដឹងតាមការគណនា (ជាទូទៅគេហៅថាឯកវចនៈ សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ).

ប្រភេទនៃ AI ដែលខ្ញុំកំពុងផ្តោតលើមាន AI ដែលមិនមានអារម្មណ៍ដែលយើងមានសព្វថ្ងៃនេះ។ ប្រសិនបើយើងចង់ស្មានទុកជាមុន អ្នកផ្ញើ AI ការពិភាក្សានេះអាចទៅក្នុងទិសដៅខុសគ្នាយ៉ាងខ្លាំង។ AI ដែល​មាន​អារម្មណ៍​ថា​នឹង​មាន​គុណភាព​មនុស្ស។ អ្នកនឹងត្រូវពិចារណាថា AI អារម្មណ៍គឺស្មើនឹងការយល់ដឹងរបស់មនុស្ស។ ជាងនេះទៅទៀត ចាប់តាំងពីមានការប៉ាន់ស្មានខ្លះថា យើងប្រហែលជាមាន AI ដ៏វៃឆ្លាតទំនើប ដូច្នេះហើយទើបអាចសន្និដ្ឋានបានថា AI បែបនេះអាចមានភាពវៃឆ្លាតជាងមនុស្សទៅទៀត (សម្រាប់ការរុករករបស់ខ្ញុំនូវ AI ឆ្លាតវៃទំនើបជាលទ្ធភាព សូមមើល ការគ្របដណ្តប់នៅទីនេះ).

ចូរយើងរក្សាអ្វីៗឱ្យកាន់តែជ្រៅនៅលើផែនដី ហើយពិចារណាអំពី AI ដែលមិនងាយយល់នាពេលបច្ចុប្បន្ននេះ។

ត្រូវដឹងថា AI នាពេលបច្ចុប្បន្ននេះ មិនអាច "គិត" តាមរបៀបណាមួយបានដូចការគិតរបស់មនុស្សនោះទេ។ នៅពេលអ្នកប្រាស្រ័យទាក់ទងជាមួយ Alexa ឬ Siri សមត្ថភាពសន្ទនាអាចហាក់ដូចជាស្រដៀងនឹងសមត្ថភាពរបស់មនុស្ស ប៉ុន្តែការពិតគឺថាវាមានលក្ខណៈគណនា និងខ្វះការយល់ដឹងរបស់មនុស្ស។ យុគសម័យចុងក្រោយបង្អស់របស់ AI បានប្រើប្រាស់យ៉ាងទូលំទូលាយនូវ Machine Learning (ML) និង Deep Learning (DL) ដែលមានឥទ្ធិពលលើការផ្គូផ្គងលំនាំគណនា។ នេះបាននាំឱ្យមានប្រព័ន្ធ AI ដែលមានរូបរាងដូចមនុស្ស។ ទន្ទឹមនឹងនេះដែរ សព្វថ្ងៃនេះមិនមាន AI ណាមួយដែលមានលក្ខណៈសមហេតុសមផលទេ ហើយក៏មិនមានការងឿងឆ្ងល់នៃការយល់ដឹងនៃការគិតដ៏រឹងមាំរបស់មនុស្សដែរ។

ML/DL គឺជាទម្រង់នៃការផ្គូផ្គងលំនាំគណនា។ វិធីសាស្រ្តធម្មតាគឺអ្នកប្រមូលផ្តុំទិន្នន័យអំពីកិច្ចការធ្វើការសម្រេចចិត្ត។ អ្នកបញ្ចូលទិន្នន័យទៅក្នុងម៉ូដែលកុំព្យូទ័រ ML/DL ។ គំរូទាំងនោះស្វែងរកលំនាំគណិតវិទ្យា។ បន្ទាប់ពីស្វែងរកគំរូបែបនេះ ប្រសិនបើរកឃើញនោះ ប្រព័ន្ធ AI នឹងប្រើលំនាំទាំងនោះនៅពេលជួបទិន្នន័យថ្មី។ នៅពេលបង្ហាញទិន្នន័យថ្មី គំរូដែលផ្អែកលើ "ទិន្នន័យចាស់" ឬទិន្នន័យប្រវត្តិសាស្រ្តត្រូវបានអនុវត្តដើម្បីបង្ហាញការសម្រេចចិត្តបច្ចុប្បន្ន។

ខ្ញុំ​គិត​ថា​អ្នក​អាច​ទាយ​ថា​តើ​នេះ​កំពុង​ទៅ​ណា​។ ប្រសិនបើ​មនុស្ស​ដែល​បាន​បង្កើត​គំរូ​តាម​ការ​សម្រេច​ចិត្ត​បាន​រួម​បញ្ចូល​ការ​លំអៀង​ដែល​មិន​ឆ្អែតឆ្អន់ នោះ​ការ​ខុសឆ្គង​គឺ​ថា​ទិន្នន័យ​បាន​ឆ្លុះ​បញ្ចាំង​ពី​ចំណុច​នេះ​តាម​វិធី​ស្រាលៗ ប៉ុន្តែ​សំខាន់។ ការ​ផ្គូផ្គង​គំរូ​ការ​សិក្សា​តាម​ម៉ាស៊ីន ឬ​ការ​រៀន​ជ្រៅ​នឹង​ព្យាយាម​ធ្វើ​ត្រាប់តាម​ទិន្នន័យ​តាម​គណិតវិទ្យា។ មិន​មាន​ភាព​ដូច​គ្នា​នៃ​សុភវិនិច្ឆ័យ ឬ​ទិដ្ឋភាព​មនោសញ្ចេតនា​ផ្សេង​ទៀត​នៃ​ការ​បង្កើត​គំរូ​ដែល​បង្កើត​ដោយ AI ក្នុង​មួយ។

ជាងនេះទៅទៀត អ្នកអភិវឌ្ឍន៍ AI ប្រហែលជាមិនដឹងពីអ្វីដែលកំពុងកើតឡើងនោះទេ។ គណិតវិទ្យា arcane នៅក្នុង ML/DL អាចធ្វើឱ្យវាពិបាកក្នុងការបំបាត់ភាពលំអៀងដែលលាក់នៅពេលនេះ។ អ្នកនឹងសង្ឃឹមយ៉ាងត្រឹមត្រូវ ហើយរំពឹងថាអ្នកអភិវឌ្ឍន៍ AI នឹងសាកល្បងសម្រាប់ភាពលំអៀងដែលអាចកប់បាន ទោះបីជាវាពិបាកជាងវាក៏ដោយ។ ឱកាសដ៏រឹងមាំមួយមានដែលថា ទោះបីជាមានការធ្វើតេស្តយ៉ាងទូលំទូលាយថានឹងមានភាពលំអៀងនៅតែបង្កប់នៅក្នុងគំរូដែលត្រូវគ្នានឹងគំរូនៃ ML/DL ក៏ដោយ។

អ្នក​អាច​ប្រើ​សុភាសិត​ដ៏​ល្បី​ឬ​មិន​ល្អ​ខ្លះ​នៃ​ការ​ចោល​សំរាម​ក្នុង​ធុង​សំរាម។ រឿងនោះគឺថា នេះគឺស្រដៀងទៅនឹងភាពលំអៀងដែលបញ្ចូលទៅក្នុង insidiously ដូចជាភាពលំអៀងដែលលិចចូលទៅក្នុង AI ។ ក្បួនដោះស្រាយការសម្រេចចិត្ត (ADM) នៃ AI axiomatically ក្លាយជាបន្ទុកដោយភាពមិនស្មើគ្នា។

មិនល្អ។

ចូរយើងត្រលប់ទៅផ្តោតលើការខ្វែងគំនិតគ្នារវាង AI និងមនុស្ស។

ខ្ញុំ​ធ្លាប់​បាន​ចង្អុល​បង្ហាញ​ថា ទាំងនេះ​គឺជា​យុទ្ធសាស្ត្រ​ដោះស្រាយ​ការ​ខ្វែងគំនិត​គ្នា​មួយ​ចំនួន៖

  • AI និង​មនុស្ស​រួម​គ្នា​ធ្វើ​ការ​ចេញ​ទៅ​ក្រៅ (មិត្តភាព​ឬ​អត់)
  • មនុស្សឈ្នះលើ AI តាមលំនាំដើម
  • តាមលំនាំដើម AI យកឈ្នះលើមនុស្ស
  • ដំណោះស្រាយថេរដែលបានកំណត់ទុកជាមុនមួយចំនួនទៀត ឈ្នះតាមលំនាំដើម
  • មនុស្ស​ភាគី​ទី​បី​ត្រូវ​បាន​បញ្ជូល​គ្នា ហើយ​ការ​បង្ហាញ​របស់​ពួកគេ​មាន​ឥទ្ធិពល​លើ​ភាគី
  • AI ភាគីទីបីត្រូវបានបញ្ជូលគ្នា ហើយការចង្អុលបង្ហាញរបស់វាមានលើភាគី
  • មនុស្សភាគីទីបីជំនួសមនុស្សដែលមានស្រាប់ អ្វីៗដំណើរការជាថ្មី
  • AI ភាគីទីបីជំនួស AI ដែលមានស្រាប់ អ្វីៗដំណើរការជាថ្មី
  • មនុស្សភាគីទីបីជំនួស AI ដែលមានស្រាប់ អ្វីៗដំណើរការជាថ្មី (ឥឡូវនេះពីមនុស្សទៅមនុស្ស)
  • AI ភាគីទីបីជំនួសមនុស្សដែលមានស្រាប់ អ្វីៗដំណើរការជាថ្មី (ឥឡូវ AI-to-AI)
  • ផ្សេងទៀត

ដល់ពេលត្រូវស្រាយកញ្ចប់ទាំងនេះហើយ។

ជាដំបូង សូមពិចារណាថា នេះគឺអំពីទាំងអស់។ ដែលមានជំនាញវិជ្ជាជីវៈ ការមិនយល់ស្រប។

ការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈត្រូវបានកំណត់ថាជាការខ្វែងគំនិតគ្នាដែលទាក់ទងនឹងកិច្ចការដែលទាក់ទងនឹងការងារ។

ជាឧទាហរណ៍ ការខ្វែងគំនិតគ្នាដែលកើតឡើងរវាងអ្នកបើកបរនិងអ្នកបើកយន្តហោះអំពីថាតើត្រូវបន្តការហោះហើរដែលកំពុងប្រឈមមុខនឹងព្យុះអាចត្រូវបានគេដាក់ស្លាកថាជាការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈ។ ផ្ទុយទៅវិញ ការខ្វែងគំនិតគ្នាយ៉ាងខ្លាំងលើម៉ាកកាហ្វេដែលអ្នកបើកយន្តហោះតស៊ូមតិសម្រាប់ធៀបនឹងម៉ាកដែលអ្នកបើកយន្តហោះចូលចិត្ត ត្រូវបានគេចាត់ថ្នាក់យ៉ាងងាយស្រួលថាជាការខ្វែងគំនិតគ្នាដែលមិនមានលក្ខណៈវិជ្ជាជីវៈនៅក្នុងបរិបទពិសេសនេះ។

ជាការពិតណាស់ ប្រសិនបើការខ្វែងគំនិតគ្នាមិនមែនជាវិជ្ជាជីវៈ ឈានទៅដល់ការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈនោះ ទីបំផុតយើងអាចចាប់អារម្មណ៍លើការខ្វែងគំនិតគ្នាមិនមែនវិជ្ជាជីវៈដែលជាប្រភពសន្មត ឬបញ្ឆេះសម្រាប់អ្នកដែលមានជំនាញវិជ្ជាជីវៈ។ ស្រមៃថាអ្នកបើកយន្តហោះ និងអ្នកបើកយន្តហោះជជែកគ្នាយ៉ាងជូរចត់អំពីកាហ្វេម៉ាកណាល្អបំផុត ដែលបន្ទាប់មកគួរឱ្យសោកស្ដាយហូរចូលទៅក្នុងក្តីបារម្ភជាក់លាក់នៃការហោះហើរ (ផាន!) ដូចជាថាតើត្រូវហោះឬអត់។

ទីពីរ យើងត្រូវចងចាំពីទំហំនៃវិវាទវិជ្ជាជីវៈ។

ប្រហែលជាអ្នកបើកយន្តហោះ និងអ្នកបើកយន្តហោះ ឬមានការខ្វែងគំនិតគ្នាបន្តិចបន្តួចអំពីដំណើរការហោះហើរ។ ពួក​គេ​មិន​ស្ថិត​នៅ​ក្បាល​អ្នក​កាប់​ឈើ​ទេ ហើយ​គ្រាន់​តែ​សញ្ជឹង​គិត​ពី​គុណសម្បត្តិ និង​គុណវិបត្តិ​ថា​តើ​ត្រូវ​ហោះ​ឡើង​ឬ​អត់។ នេះមិនមែនជាទំហំ ឬទំហំនៃការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈ ដែលយើងកំពុងពិចារណាជាធម្មតានៅទីនេះទេ។ រឿងនេះគឺថា វាអាចថាការខ្វែងគំនិតគ្នាខាងវិជ្ជាជីវៈគឺជាអន្តរកាល ហើយភាគីទាំងពីរធ្វើការដោះស្រាយយ៉ាងស្និទ្ធស្នាល ឬយ៉ាងហោចណាស់ក៏ទាន់ពេលវេលា។ ជាទូទៅ ការផ្តោតទៅលើការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈក្នុងវិសាលភាពគឺជាបញ្ហាដែលមើលទៅហាក់ដូចជាមិនអាចទាក់ទាញបាន ហើយភាគីទាំងពីរនៅតែប្រកាន់ខ្ជាប់ខ្វែងគំនិតគ្នាយ៉ាងខ្ជាប់ខ្ជួន។

ទីបី ជាធម្មតាត្រូវតែមានអ្វីមួយដែលធ្ងន់ធ្ងរនៅលើបន្ទាត់សម្រាប់គោលការណ៍ណែនាំទាំងនេះចូលជាធរមាន។

ការជ្រើសរើសយកការហោះហើរ ឬមិនហោះហើរ គឺជាការសម្រេចចិត្តបែបជីវិត ឬសេចក្តីស្លាប់ ប្រសិនបើការហោះហើរមានហានិភ័យដោយសារព្យុះ ឬយន្តហោះត្រូវបានចាត់ទុកថាមិនបានរៀបចំពេញលេញសម្រាប់ការធ្វើដំណើរបែបនេះ។ នេះគឺជាអាជីវកម្មធ្ងន់ធ្ងរ។ យើងនៅតែអាចអនុវត្តគោលការណ៍ណែនាំចំពោះការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈដែលមិនសូវមានផលប៉ះពាល់ ទោះបីជាវាអាចមានការរំខានច្រើនជាងតម្លៃក៏ដោយ។

មិនអីទេ ការពិចារណារបស់យើងគឺ៖

  • ការ​ខ្វែង​គំនិត​គ្នា​នេះ​គឺ​ផ្តោត​លើ​វិជ្ជាជីវៈ​ជា​ជាង​លើ​អ្វី​ដែល​មិន​មាន​វិជ្ជាជីវៈ
  • ការខ្វែងគំនិតគ្នាមានលក្ខណៈជានិរន្តរភាព និងមិនមែនគ្រាន់តែជាអន្តរកាល ឬអាចដោះស្រាយបានយ៉ាងងាយស្រួលនោះទេ។
  • ការ​ខ្វែង​គំនិត​គ្នា​នេះ​បាន​ទាយ​ទុក​ជា​មុន​នូវ​ផល​វិបាក​ធ្ងន់ធ្ងរ ហើយ​ជា​ធម្មតា​មាន​ផល​ប៉ះពាល់
  • ភាគី​ទាំង​នោះ​ស្ថិត​នៅ​ក្នុង​ការ​កាប់​ឈើ ហើយ​ពួក​គេ​ហាក់​ដូច​ជា​មិន​អាច​ទាក់​ទាញ​បាន។

ឥឡូវនេះ សូមពិនិត្យមើលឱ្យបានដិតដល់នូវគោលការណ៍ណែនាំ ឬវិធីសាស្រ្តនីមួយៗដែលបានស្នើរបស់ខ្ញុំ ទាក់ទងនឹងរបៀបដោះស្រាយការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈបែបនេះ។

AI និង​មនុស្ស​រួម​គ្នា​ធ្វើ​ការ​ចេញ​ទៅ​ក្រៅ (មិត្តភាព​ឬ​អត់)

ខ្ញុំចាប់ផ្តើមបញ្ជីជាមួយនឹងលទ្ធភាពត្រង់ថា AI និងមនុស្សក្នុងរង្វង់អាចដោះស្រាយការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈក្នុងចំណោមពួកគេ។ វាហាក់ដូចជាថា ប្រហែលជាឧទាហរណ៍នៃមនុស្សពីរនាក់ ពីឡុត និង ពីឡុត បង្ហាញពីកាលៈទេសៈបែបនេះ។ ពួក​គេ​បាន​សម្រេច​ចិត្ត​ត្រឡប់​ទៅ​ស្ថានីយ​វិញ ហើយ​ទៅ​តាម​ផ្លូវ​ដាច់​ដោយ​ឡែក​ពី​គេ។ វាអាចថាប្រព័ន្ធ AI និងមនុស្សអាចរកវិធីដោះស្រាយដែលជាទូទៅពេញចិត្តសម្រាប់ភាគីទាំងពីរ ហើយបញ្ហាត្រូវបានបញ្ចប់យ៉ាងពេញចិត្ត។

មនុស្សឈ្នះលើ AI តាមលំនាំដើម

នៅពេលដំឡើង AI យើងអាចរៀបចំច្បាប់មួយដែលនិយាយថាមនុស្សក្នុងរង្វង់នឹងតែងតែមានជ័យជំនះគ្រប់ពេលដែលមានការខ្វែងគំនិតគ្នាក្នុងវិជ្ជាជីវៈកើតឡើង។ នេះ​នឹង​ជា​លំនាំដើម​ដែល​បាន​សរសេរ​កូដ​ច្បាស់លាស់។ យើងក៏អាចអនុញ្ញាតឲ្យមានការបដិសេធក្នុងទម្រង់មួយចំនួនផងដែរ ក្នុងករណីទោះបីជាច្បាប់ឈរលើមនុស្សនោះក៏ដោយ។

តាមលំនាំដើម AI យកឈ្នះលើមនុស្ស

នៅពេលដំឡើង AI យើងអាចរៀបចំច្បាប់មួយដែលនិយាយថា AI តែងតែឈ្នះលើមនុស្សក្នុងរង្វង់ នៅពេលណាដែលមានការខ្វែងគំនិតខាងវិជ្ជាជីវៈកើតឡើង។ នេះ​គឺ​ជា​លំនាំដើម​ដែល​បាន​សរសេរ​កូដ​ច្បាស់លាស់។ យើងក៏អាចអនុញ្ញាតឱ្យមានទម្រង់នៃការបដិសេធមួយចំនួនផងដែរ ក្នុងករណី ទោះបីជាច្បាប់ឈរនោះ AI ឈ្នះក៏ដោយ។

ដំណោះស្រាយថេរដែលបានកំណត់ទុកជាមុនមួយចំនួនទៀត ឈ្នះតាមលំនាំដើម

នៅពេលដំឡើង AI យើងអាចរៀបចំច្បាប់ដែលនិយាយថាដំណោះស្រាយថេរដែលបានកំណត់ទុកជាមុនមួយចំនួនផ្សេងទៀតនឹងឈ្នះរាល់ពេលដែលការមិនចុះសម្រុងនឹងវិជ្ជាជីវៈកើតឡើងជាមួយមនុស្សក្នុងរង្វង់។ មនុស្សក្នុងរង្វង់មិនជោគជ័យតាមលំនាំដើមទេ។ តាមលំនាំដើម AI មិនអាចយកឈ្នះបានទេ។ មានដំណោះស្រាយដែលបានកំណត់ទុកជាមុនមួយចំនួនទៀត។ ជាឧទាហរណ៍ ប្រហែលជាមានការបោះកាក់ដែលនឹងប្រើដើម្បីសម្រេចថាតើភាគីទាំងពីរណាមួយត្រូវបានចាត់ទុកថាជាផ្លូវត្រូវដែលត្រូវដើរ។ នោះច្បាស់ជាហាក់ដូចជាបំពាន។ ដូច្នេះ វិធីសាស្រ្តឧទាហរណ៍មួយទៀត គឺថា ច្បាប់ឯកទេសចាប់ផ្តើមដែលគណនាតម្លៃដោយផ្អែកលើធាតុចូលពីភាគីទាំងពីរ ហើយមកដល់លទ្ធផលជាអ្នកបំបែក។

មនុស្ស​ភាគី​ទី​បី​ត្រូវ​បាន​បញ្ជូល​គ្នា ហើយ​ការ​បង្ហាញ​របស់​ពួកគេ​មាន​ឥទ្ធិពល​លើ​ភាគី

នៅពេលមានការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈ ច្បាប់មួយអាចថាភាគីទីបីដែលជាមនុស្សត្រូវបានហៅ និងបញ្ចូលទៅក្នុងការកំណត់ដើម្បីធ្វើការសម្រេចចិត្តអំពីការដោះស្រាយការខ្វែងគំនិតគ្នា។ AI ត្រូវ​បាន​គេ​ដាក់​កម្មវិធី​ដើម្បី​អនុលោម​តាម​អ្វី​ដែល​មនុស្ស​ភាគី​ទីបី​សម្រេច។ មនុស្ស​ដែល​នៅ​ក្នុង​រង្វង់​មនុស្ស​រួច​ហើយ ត្រូវ​បាន​គេ​ណែនាំ​ជា​មុន​ថា បើ​មាន​ស្ថានការណ៍​បែប​នេះ​កើត​ឡើង គេ​ក៏​ត្រូវ​ពន្យារ​ចំពោះ​មនុស្ស​ភាគី​ទី​បី​ដែរ។ ដោយឡែក អ្នកទំនងជាអាចប្រមើលមើលថា មនុស្សក្នុងរង្វង់អាចមានការខឹងសម្បារចំពោះការទទួលយកអ្វីក៏ដោយដែលមនុស្សភាគីទីបីសម្រេចចិត្ត ប្រសិនបើការសម្រេចចិត្តមិនយល់ស្របនឹងឥរិយាបថរបស់មនុស្សក្នុងរង្វង់។

AI ភាគីទីបីត្រូវបានបញ្ជូលគ្នា ហើយការចង្អុលបង្ហាញរបស់វាមានលើភាគី

នៅពេលមានការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈ ច្បាប់មួយអាចជាភាគីទីបីដែលជាប្រព័ន្ធ AI ផ្សេងគ្នាត្រូវបានហៅ និងបញ្ចូលទៅក្នុងការកំណត់ដើម្បីធ្វើការសម្រេចចិត្តអំពីការដោះស្រាយការខ្វែងគំនិតគ្នា។ AI ដើម​ត្រូវ​បាន​គេ​ដាក់​កម្មវិធី​ដើម្បី​អនុលោម​តាម​អ្វី​ដែល AI ភាគី​ទីបី​សម្រេច។ មនុស្សនៅក្នុងរង្វង់មនុស្សរួចហើយត្រូវបានណែនាំជាមុនថាប្រសិនបើស្ថានភាពបែបនេះកើតឡើងពួកគេក៏ត្រូវពន្យាពេលទៅភាគីទីបី AI ។ ដោយឡែក អ្នកទំនងជាអាចទស្សទាយបានថា មនុស្សនៅក្នុងរង្វង់អាចមានការខឹងសម្បារចំពោះការទទួលយកអ្វីដែល AI ភាគីទីបីសម្រេចចិត្ត ប្រសិនបើការសម្រេចចិត្តមិនយល់ស្របនឹងឥរិយាបថរបស់មនុស្សក្នុងរង្វង់។

មនុស្សភាគីទីបីជំនួសមនុស្សដែលមានស្រាប់ អ្វីៗដំណើរការជាថ្មី

នៅពេលមានការខ្វែងគំនិតគ្នាខាងវិជ្ជាជីវៈ មនុស្សនៅក្នុងរង្វង់ត្រូវបានជំនួសដោយភាគីទីបីដែលជាមនុស្ស ហើយដែលក្លាយជាមនុស្សនៅក្នុងរង្វង់ចាប់ពីពេលនេះតទៅ។ មនុស្ស​ដែល​ជា​មនុស្ស​ក្នុង​រង្វង់​ដើម​សម្រាប់​កិច្ចការ​នេះ​មិន​ត្រូវ​បាន​ចាត់​ទុក​ជា​ផ្នែក​នៃ​កិច្ចការ​ដែល​នៅ​ក្នុង​ដៃ​ទៀត​ទេ។ វាគឺជាទិដ្ឋភាពបើកចំហចំពោះអ្វីដែលកើតឡើងខុសពីមនុស្សនៅក្នុងរង្វង់ឥឡូវនេះ ប៉ុន្តែយើងកំពុងនិយាយថា ប្រាកដណាស់ថាពួកគេលែងមានតួនាទីបន្តនៅក្នុងកិច្ចការការងារទៀតហើយ។

AI ភាគីទីបីជំនួស AI ដែលមានស្រាប់ អ្វីៗដំណើរការជាថ្មី

នៅពេលមានការខ្វែងគំនិតគ្នាពីវិជ្ជាជីវៈ AI ត្រូវបានជំនួសដោយ AI ភាគីទីបី ហើយនោះនឹងក្លាយទៅជា AI ដែលត្រូវបានប្រើប្រាស់សម្រាប់កិច្ចការការងារនៅនឹងដៃ។ AI ដែល​ត្រូវ​បាន​ប្រើ​ដំបូង​សម្រាប់​កិច្ចការ​មិន​ត្រូវ​បាន​ចាត់​ទុក​ជា​ផ្នែក​នៃ​កិច្ចការ​នៅ​ក្នុង​ដៃ​ទៀត​ទេ។ វាគឺជាទិដ្ឋភាពបើកចំហចំពោះអ្វីដែលកើតឡើងជាមួយ AI ដែលត្រូវបានជំនួសឥឡូវនេះ ប៉ុន្តែយើងកំពុងនិយាយថា ប្រាកដណាស់ AI លែងមានតួនាទីបន្តនៅក្នុងកិច្ចការការងារទៀតហើយ។

មនុស្សភាគីទីបីជំនួស AI ដែលមានស្រាប់ អ្វីៗដំណើរការជាថ្មី (ឥឡូវនេះពីមនុស្សទៅមនុស្ស)

នៅពេលមានការខ្វែងគំនិតគ្នាខាងវិជ្ជាជីវៈ AI ត្រូវបានជំនួសដោយមនុស្សភាគីទីបី ដែលមនុស្សនោះឥឡូវនេះក្លាយជាភាគីសហក្រុមដែលត្រូវបានចាត់ទុកថានឹងត្រូវប្រើសម្រាប់កិច្ចការការងារនៅនឹងដៃ។ AI ដែល​ត្រូវ​បាន​ប្រើ​ដំបូង​សម្រាប់​កិច្ចការ​មិន​ត្រូវ​បាន​ចាត់​ទុក​ជា​ផ្នែក​នៃ​កិច្ចការ​នៅ​ក្នុង​ដៃ​ទៀត​ទេ។ វាគឺជាទិដ្ឋភាពបើកចំហរចំពោះអ្វីដែលកើតឡើងជាមួយ AI ដែលបានជំនួសឥឡូវនេះ ប៉ុន្តែយើងកំពុងនិយាយថា ប្រាកដណាស់ថា AI លែងមានតួនាទីបន្តនៅក្នុងកិច្ចការការងារទៀតហើយ។ សរុបមក ឥឡូវនេះ វាក្លាយជាកិច្ចការពីរភាគីដែលធ្វើឡើងពីមនុស្សទៅមនុស្ស។

AI ភាគីទីបីជំនួសមនុស្សដែលមានស្រាប់ អ្វីៗដំណើរការជាថ្មី (ឥឡូវ AI-to-AI)

នៅពេលមានការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈ មនុស្សនៅក្នុងរង្វង់ត្រូវបានជំនួសដោយ AI ភាគីទីបី ហើយ AI នេះនឹងក្លាយជាការបំពេញបន្ថែមសម្រាប់មនុស្សនៅក្នុងរង្វង់មុននេះ។ មនុស្ស​ដែល​ជា​មនុស្ស​ក្នុង​រង្វង់​ដើម​សម្រាប់​កិច្ចការ​នេះ​មិន​ត្រូវ​បាន​ចាត់​ទុក​ជា​ផ្នែក​នៃ​កិច្ចការ​ដែល​នៅ​ក្នុង​ដៃ​ទៀត​ទេ។ វាគឺជាទិដ្ឋភាពបើកចំហចំពោះអ្វីដែលកើតឡើងខុសពីមនុស្សនៅក្នុងរង្វង់ឥឡូវនេះ ប៉ុន្តែយើងកំពុងនិយាយថា ប្រាកដណាស់ថាពួកគេលែងមានតួនាទីបន្តនៅក្នុងកិច្ចការការងារទៀតហើយ។ សរុបមក ឥឡូវនេះ វាក្លាយជា AI-to-AI ពីរភាគី ដើម្បីបំពេញភារកិច្ច។

ផ្សេងទៀត

បំរែបំរួលផ្សេងទៀតអាចត្រូវបានបង្កើតឡើងដើម្បីទប់ទល់នឹងការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈ ប៉ុន្តែយើងបានគ្របដណ្តប់នៅទីនេះនូវគន្លឹះមួយចំនួន។

តើ​យើង​ត្រូវ​ធ្វើ​ដូចម្តេច​ដើម្បី​សម្រេច​ចិត្ត​ថា​វិធីសាស្ត្រ​ទាំង​នោះ​មួយ​ណា​នឹង​ត្រូវ​សម្រាប់​ស្ថានភាព​មួយ​?

បញ្ហាជាច្រើនចូលទៅក្នុងការជ្រើសរើសបែបនេះ។ មានការពិចារណាផ្នែកបច្ចេកវិទ្យា។ មានការពិចារណាលើអាជីវកម្ម។ មានការពិចារណាផ្នែកច្បាប់ និងក្រមសីលធម៌។

ដល់កម្រិតខ្លះ នោះហើយជាមូលហេតុដែល AI Ethics និង Ethical AI គឺជាប្រធានបទសំខាន់បែបនេះ។ សិក្ខាបទនៃក្រមសីលធម៌ AI ធ្វើឱ្យយើងមានការប្រុងប្រយ័ត្ន។ ពេលខ្លះអ្នកបច្ចេកវិទ្យា AI អាចក្លាយជាមនុស្សចាប់អារម្មណ៍លើបច្ចេកវិទ្យា ជាពិសេសការបង្កើនប្រសិទ្ធភាពនៃបច្ចេកវិទ្យាខ្ពស់។ ពួកគេមិនចាំបាច់ពិចារណាពីផលប៉ះពាល់សង្គមធំជាងនេះទេ។ ការមានផ្នត់គំនិត AI Ethics និងការធ្វើដូច្នេះរួមបញ្ចូលជាមួយការអភិវឌ្ឍន៍ និងការអនុវត្ត AI គឺមានសារៈសំខាន់សម្រាប់ផលិត AI ដែលសមស្រប រួមទាំង (ប្រហែលជាគួរឱ្យភ្ញាក់ផ្អើល ឬហួសចិត្ត) ការវាយតម្លៃអំពីរបៀបដែល AI Ethics ត្រូវបានក្រុមហ៊ុនទទួលយកដោយក្រុមហ៊ុន។

ក្រៅពីការប្រើប្រាស់ច្បាប់សីលធម៌ AI ជាទូទៅ មានសំណួរដែលត្រូវគ្នាថាតើយើងគួរតែមានច្បាប់ដើម្បីគ្រប់គ្រងការប្រើប្រាស់ផ្សេងៗនៃ AI ដែរឬទេ។ ច្បាប់ថ្មីកំពុងត្រូវបានដាក់ពង្រាយនៅកម្រិតសហព័ន្ធ រដ្ឋ និងមូលដ្ឋាន ដែលទាក់ទងនឹងជួរ និងលក្ខណៈនៃរបៀបដែល AI គួរតែត្រូវបានបង្កើត។ ការ​ខិតខំ​ធ្វើ​សេចក្តី​ព្រាង និង​អនុម័ត​ច្បាប់​បែប​នេះ​ជា​បណ្តើរៗ។ ក្រមសីលធម៌ AI ដើរតួជាគម្លាតដែលត្រូវបានពិចារណា យ៉ាងហោចណាស់ ហើយស្ទើរតែនឹងប្រាកដក្នុងកម្រិតខ្លះត្រូវបានដាក់បញ្ចូលទៅក្នុងច្បាប់ថ្មីទាំងនោះ។

ត្រូវ​ដឹង​ថា​មាន​អ្នក​ខ្លះ​ប្រកែក​យ៉ាង​ម៉ឺងម៉ាត់​ថា​យើង​មិន​ត្រូវ​ការ​ច្បាប់​ថ្មី​ដែល​គ្រប​ដណ្ដប់​លើ AI ហើយ​ថា​ច្បាប់​ដែល​មាន​ស្រាប់​របស់​យើង​គឺ​គ្រប់គ្រាន់​ហើយ។ តាមពិតទៅ ពួកគេបានព្រមានថា ប្រសិនបើយើងអនុវត្តច្បាប់ AI មួយចំនួននេះ យើងនឹងសម្លាប់សត្វពពែមាស ដោយកាត់បន្ថយភាពជឿនលឿននៃ AI ដែលផ្តល់អត្ថប្រយោជន៍យ៉ាងច្រើនដល់សង្គម។

នៅចំនុចប្រសព្វនៃការពិភាក្សាដ៏មានទម្ងន់នេះ ខ្ញុំចង់ភ្នាល់ថា អ្នកពិតជាចង់បានឧទាហរណ៍មួយចំនួនដែលអាចបង្ហាញអំពីប្រធានបទនេះ។ មានគំរូដ៏ពេញនិយមពិសេស និងប្រាកដប្រជាដែលនៅជិតបេះដូងខ្ញុំ។ អ្នកឃើញហើយ ក្នុងសមត្ថភាពរបស់ខ្ញុំក្នុងនាមជាអ្នកជំនាញលើ AI រួមទាំងផលប៉ះពាល់ខាងសីលធម៌ និងផ្នែកច្បាប់ ខ្ញុំត្រូវបានគេសួរជាញឹកញាប់ឱ្យកំណត់ឧទាហរណ៍ជាក់ស្តែងដែលបង្ហាញពីភាពលំបាកនៃក្រមសីលធម៌ AI ដូច្នេះ លក្ខណៈទ្រឹស្តីខ្លះនៃប្រធានបទអាចយល់បានកាន់តែងាយស្រួល។ ផ្នែកមួយដែលរំជើបរំជួលបំផុតដែលបង្ហាញយ៉ាងរស់រវើកអំពីក្រមសីលធម៌ AI នេះគឺការមកដល់នៃរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដដែលមានមូលដ្ឋានលើ AI ។ វានឹងបម្រើជាករណីប្រើប្រាស់ដ៏ងាយស្រួល ឬជាឧទាហរណ៍សម្រាប់ការពិភាក្សាយ៉ាងទូលំទូលាយលើប្រធានបទ។

ខាងក្រោមនេះជាសំណួរដែលគួរអោយចាប់អារម្មណ៍ដែលគួរពិចារណា៖ តើការមកដល់នៃរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដដែលមានមូលដ្ឋានលើ AI បំភ្លឺអ្វីទាំងអស់អំពីដំណោះស្រាយការខ្វែងគំនិតគ្នារវាង AI និងមនុស្ស ហើយប្រសិនបើដូច្នេះ តើនេះបង្ហាញអ្វីខ្លះ?

ទុកពេលឱ្យខ្ញុំមួយភ្លែតដើម្បីស្រាយសំណួរ។

ជាដំបូង សូមចំណាំថា មិនមានអ្នកបើកបរមនុស្សពាក់ព័ន្ធនឹងរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដនោះទេ។ សូមចងចាំថារថយន្តដែលបើកបរដោយខ្លួនឯងពិតប្រាកដគឺត្រូវបានជំរុញតាមរយៈប្រព័ន្ធបើកបរ AI ។ មិន​ចាំបាច់​មាន​អ្នក​បើក​បរ​មនុស្ស​នៅ​កង់​នោះ​ទេ ហើយ​ក៏​មិន​មាន​ការ​ផ្តល់​ឲ្យ​មនុស្ស​ដើម្បី​បើក​រថយន្ត​ដែរ។ សម្រាប់ការគ្របដណ្តប់យ៉ាងទូលំទូលាយ និងបន្តរបស់ខ្ញុំនៃយានយន្តស្វយ័ត (AVs) និងជាពិសេសរថយន្តដែលបើកបរដោយខ្លួនឯង សូមមើល តំណភ្ជាប់នៅទីនេះ.

ខ្ញុំចង់បញ្ជាក់បន្ថែមទៀតថាតើវាមានន័យយ៉ាងម៉េចនៅពេលខ្ញុំនិយាយអំពីឡានបើកបរដោយខ្លួនឯង។

ស្វែងយល់ពីកម្រិតនៃរថយន្តបើកបរដោយខ្លួនឯង

ក្នុងនាមជាការបញ្ជាក់មួយរថយន្តបើកបរដោយខ្លួនឯងគឺជាប្រភេទមួយដែលអាយអេសបើកបររថយន្តដោយខ្លួនឯងហើយមិនមានជំនួយពីមនុស្សទេក្នុងពេលបើកបរ។

យានជំនិះគ្មានអ្នកបើកបរទាំងនេះត្រូវបានចាត់ទុកថាជាកម្រិតទី 4 និងកម្រិត 5 (សូមមើលការពន្យល់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ) ខណៈពេលដែលរថយន្តដែលតម្រូវឱ្យអ្នកបើកបរមនុស្សរួមគ្នាចែករំលែកការប្រឹងប្រែងបើកបរជាធម្មតាត្រូវបានចាត់ទុកថានៅកម្រិត 2 ឬកម្រិត 3 ។ រថយន្តដែលរួមគ្នាចែករំលែកភារកិច្ចបើកបរត្រូវបានពិពណ៌នាថាជាពាក់កណ្តាលស្វយ័ត ហើយជាធម្មតាមានភាពខុសគ្នានៃ កម្មវិធីបន្ថែមដោយស្វ័យប្រវត្តិដែលត្រូវបានគេហៅថា ADAS (Advanced Driver-Assistance Systems)។

មិនទាន់មានរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដនៅកម្រិតទី 5 នៅឡើយទេ ហើយយើងក៏មិនទាន់ដឹងថា តើវាអាចសម្រេចបានដែរ ឬអត់នោះទេ ហើយវានឹងចំណាយពេលយូរប៉ុណ្ណាដើម្បីទៅដល់ទីនោះ។

ទន្ទឹមនឹងនេះ កិច្ចខិតខំប្រឹងប្រែងកម្រិតទី 4 កំពុងព្យាយាមបន្តិចម្តងៗ ដើម្បីទទួលបានការអូសទាញមួយចំនួន ដោយឆ្លងកាត់ការសាកល្បងផ្លូវសាធារណៈតូចចង្អៀត និងជ្រើសរើស ទោះបីជាមានភាពចម្រូងចម្រាសលើថាតើការធ្វើតេស្តនេះគួរតែត្រូវបានអនុញ្ញាតក្នុងម្នាក់ៗក៏ដោយ (យើងទាំងអស់គ្នាគឺជាជ្រូកហ្គីណេដែលមានជីវិត ឬស្លាប់នៅក្នុងការពិសោធន៍មួយ។ កើតឡើងនៅលើផ្លូវហាយវេ និងផ្លូវរបស់យើង អ្នកខ្លះឈ្លោះគ្នា សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ).

ដោយសាររថយន្តពាក់កណ្តាលស្វ័យភាពតម្រូវឱ្យមានអ្នកបើកបរជាមនុស្សការអនុម័តប្រភេទរថយន្តទាំងនោះនឹងមិនខុសពីការបើកបរយានយន្តធម្មតាទេដូច្នេះមិនមានអ្វីថ្មីទេសម្រាប់និយាយអំពីប្រធានបទនេះ (ទោះបីជាអ្នកនឹងឃើញក៏ដោយ) ក្នុងពេលតែមួយចំនុចដែលបានធ្វើជាទូទៅអាចអនុវត្តបាន) ។

ចំពោះរថយន្តពាក់កណ្តាលស្វយ័តវាជាការសំខាន់ដែលសាធារណជនត្រូវដឹងជាមុនអំពីទិដ្ឋភាពគួរឱ្យព្រួយបារម្ភដែលកំពុងកើតឡើងនាពេលថ្មីៗនេះពោលគឺទោះបីអ្នកបើកបរមនុស្សទាំងនោះនៅតែបន្តបង្ហោះវីដេអូខ្លួនពួកគេដេកលង់លក់ក្នុងកង់រថយន្តកម្រិត ២ ឬលេខ ៣ ក៏ដោយ។ យើងទាំងអស់គ្នាត្រូវចៀសវាងកុំអោយវង្វេងស្មារតីជឿថាអ្នកបើកបរអាចយកការចាប់អារម្មណ៍របស់ពួកគេចេញពីភារកិច្ចបើកបរនៅពេលបើកបររថយន្តពាក់កណ្តាលស្វយ័ត។

អ្នកគឺជាអ្នកទទួលខុសត្រូវចំពោះសកម្មភាពបើកបររបស់យានយន្តដោយមិនគិតពីចំនួនស្វ័យប្រវត្តិកម្មដែលអាចត្រូវបានបោះចូលទៅក្នុងកម្រិត ២ ឬកម្រិត ៣ ។

រថយន្តបើកបរដោយខ្លួនឯង និងការមិនយល់ស្រប AI-Versus-Human

សម្រាប់យានយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដកម្រិតទី ៤ និងទី ៥ នឹងមិនមានអ្នកបើកបរជាមនុស្សចូលរួមក្នុងការងារបើកបរឡើយ។

អ្នកកាន់កាប់ទាំងអស់នឹងក្លាយជាអ្នកដំណើរ។

អេអាយអេកំពុងធ្វើការបើកបរ។

ទិដ្ឋភាពមួយដែលត្រូវពិភាក្សាភ្លាមៗទាក់ទងនឹងការពិតដែលថាអេ។ អាយ។ អិ។ ពាក់ព័ន្ធនឹងប្រព័ន្ធបើកបរ AI សព្វថ្ងៃមិនងាយស្រួលទេ។ និយាយម៉្យាងទៀតអេអាយគឺទាំងអស់គ្នាជាកម្មវិធីរួមបញ្ចូលគ្នានៃកម្មវិធីនិងក្បួនដោះស្រាយដែលផ្អែកលើកុំព្យូទ័រហើយភាគច្រើនប្រាកដជាមិនអាចវែកញែកតាមរបៀបដែលមនុស្សអាចធ្វើបានឡើយ។

ហេតុអ្វីបានជាការសង្កត់ធ្ងន់បន្ថែមអំពីអេអាយមិនមានអារម្មណ៍?

ដោយសារតែខ្ញុំចង់គូសបញ្ជាក់ថានៅពេលពិភាក្សាអំពីតួនាទីរបស់ប្រព័ន្ធបើកបរ AI ខ្ញុំមិនបានបង្ហាញពីគុណសម្បត្តិរបស់មនុស្សទៅនឹង AI ទេ។ សូមមេត្តាជ្រាបថាមានទំនោរដែលកំពុងបន្តនិងមានគ្រោះថ្នាក់នាពេលបច្ចុប្បន្ននេះចំពោះមនុស្សវិទូ។ បើនិយាយអោយចំទៅមនុស្សកំពុងតែផ្តល់នូវមនោសញ្ចេតនាស្រដៀងនឹងមនុស្សទៅនឹងអេអាយអេសព្វថ្ងៃនេះទោះបីជាការពិតដែលមិនអាចប្រកែកបាននិងមិនអាចកាត់ថ្លៃបានថាពុំមាន AI បែបនេះនៅឡើយទេ។

ជាមួយនឹងការបំភ្លឺនោះអ្នកអាចស្មានថាប្រព័ន្ធបើកបរ AI នឹងមិនមាន“ ដឹង” ពីលក្ខណៈនៃការបើកបរ។ ការបើកបរនិងអ្វីទាំងអស់ដែលវាតម្រូវឱ្យមានកម្មវិធីជាផ្នែកមួយនៃផ្នែករឹងនិងផ្នែកទន់នៃឡានបើកបរដោយខ្លួនឯង។

សូមមុជចូលទៅក្នុងទិដ្ឋភាពជាច្រើនដែលបានមកលេងលើប្រធានបទនេះ។

ជាដំបូង វាជារឿងសំខាន់ដែលត្រូវដឹងថា មិនមែនរថយន្តដែលបើកបរដោយខ្លួនឯង AI ទាំងអស់សុទ្ធតែដូចគ្នានោះទេ។ ក្រុមហ៊ុនផលិតរថយន្តនីមួយៗ និងក្រុមហ៊ុនបច្ចេកវិទ្យាបើកបរដោយខ្លួនឯងកំពុងប្រើប្រាស់វិធីសាស្រ្តរបស់ខ្លួនក្នុងការរៀបចំរថយន្តដែលបើកបរដោយស្វ័យប្រវត្តិ។ ដូចនេះ វាពិបាកក្នុងការធ្វើសេចក្តីថ្លែងការណ៍ដ៏ទូលំទូលាយអំពីអ្វីដែលប្រព័ន្ធបើកបរ AI នឹងធ្វើឬមិនធ្វើ។

លើសពីនេះទៅទៀតនៅពេលណាដែលបញ្ជាក់ថាប្រព័ន្ធបើកបរអេអាយមិនធ្វើអ្វីជាក់លាក់ណាមួយនោះនៅពេលក្រោយនេះអាចត្រូវបានអ្នកអភិវឌ្developersន៍យកឈ្នះដែលតាមពិតកម្មវិធីកុំព្យូទ័រអាចធ្វើបាន។ មួយជំហានម្តង ៗ ប្រព័ន្ធបើកបរអេអាយអាយកំពុងត្រូវបានកែលម្អនិងពង្រីកបន្តិចម្តង ៗ ។ ការដាក់កំហិតដែលមានស្រាប់នៅថ្ងៃនេះប្រហែលជាលែងមាននៅក្នុងការបង្កើតឡើងវិញឬកំណែប្រព័ន្ធនាពេលអនាគត។

ខ្ញុំសង្ឃឹមថា វាផ្តល់នូវការព្រមានដ៏គ្រប់គ្រាន់មួយ ដើម្បីគូសបញ្ជាក់នូវអ្វីដែលខ្ញុំរៀបនឹងទាក់ទង។

សម្រាប់យានជំនិះដែលមានស្វ័យភាពពេញលេញ វាប្រហែលជាមិនមានឱកាសនៃការខ្វែងគំនិតគ្នារវាងមនុស្ស និង AI នោះទេ ដោយសារតែលទ្ធភាពដែលមិនមានមនុស្សនៅក្នុងរង្វង់ដើម្បីចាប់ផ្តើមជាមួយ។ ក្តីប្រាថ្នារបស់អ្នកផលិតរថយន្តបើកបរដោយខ្លួនឯងជាច្រើននាពេលបច្ចុប្បន្ននេះគឺចង់ដកអ្នកបើកបរមនុស្សទាំងស្រុងចេញពីការងារបើកបរ។ រថយន្តនឹងមិនមានសូម្បីតែការគ្រប់គ្រងការបើកបរដែលអាចចូលដំណើរការបានដោយមនុស្ស។ ក្នុង​ករណី​នោះ អ្នក​បើក​បរ​ជា​មនុស្ស បើ​មាន​វត្តមាន នឹង​មិន​អាច​ចូល​រួម​ក្នុង​កិច្ចការ​បើកបរ​បាន​ទេ ព្រោះ​ពួក​គេ​ខ្វះ​សិទ្ធិ​ចូល​ទៅ​កាន់​ការ​គ្រប់​គ្រង​ការ​បើកបរ។

សម្រាប់យានជំនិះដែលមានស្វ័យភាពពេញលេញ ការរចនាខ្លះនៅតែអនុញ្ញាតឱ្យមនុស្សនៅក្នុងរង្វង់ ទោះបីជាមនុស្សមិនចាំបាច់មាន ឬចូលរួមក្នុងដំណើរការបើកបរក៏ដោយ។ ដូច្នេះ មនុស្សអាចចូលរួមក្នុងការបើកបរ ប្រសិនបើបុគ្គលនោះចង់ធ្វើដូច្នេះ។ ទោះបីជាយ៉ាងណាក៏ដោយ AI ពឹងផ្អែកលើមនុស្សដើម្បីបំពេញការងារណាមួយនៃការបើកបរ។

ក្នុង​ករណី​រថយន្ត​ពាក់​កណ្តាល​ស្វយ័ត​មាន​ទំនាក់​ទំនង​រវាង​អ្នក​បើក​បរ​មនុស្ស​និង​ AI។ អ្នកបើកបរមនុស្សអាចគ្រប់គ្រងការគ្រប់គ្រងការបើកបរទាំងស្រុង ហើយជាសំខាន់បញ្ឈប់ AI ពីការចូលរួមក្នុងការបើកបរ។ ប្រសិនបើអ្នកបើកបរមនុស្សចង់បញ្ចូល AI ឡើងវិញទៅក្នុងតួនាទីបើកបរ ពួកគេអាចធ្វើដូច្នេះបាន ទោះបីជាពេលខ្លះវាបង្ខំមនុស្សឱ្យបោះបង់ការគ្រប់គ្រងការបើកបរក៏ដោយ។

ទម្រង់ប្រតិបត្តិការពាក់កណ្តាលស្វយ័តមួយផ្សេងទៀតនឹងរួមបញ្ចូលអ្នកបើកបរមនុស្ស និង AI ធ្វើការរួមគ្នាក្នុងលក្ខណៈជាក្រុម។ AI កំពុងបើកបរ ហើយមនុស្សកំពុងបើកបរ។ ពួកគេកំពុងបើកបរជាមួយគ្នា។ AI អាចពន្យារដល់មនុស្ស។ មនុស្សអាចពន្យាពេលទៅ AI ។

នៅចំណុចប្រសព្វខ្លះ ប្រព័ន្ធបើកបរ AI និងអ្នកបើកបរមនុស្សនៅក្នុងរង្វង់អាចឈានដល់ចំណុចប្រសព្វនៃ "ការមិនចុះសម្រុងគ្នាក្នុងវិជ្ជាជីវៈ" ចំពោះកិច្ចការបើកបរនៅនឹងដៃ។

ដើម្បីបង្ហាញពីរបៀបដែលច្បាប់ដែលបានរៀបរាប់ខាងលើមួយចំនួននៃការដោះស្រាយការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈអាចជាបញ្ហាប្រឈមក្នុងការអនុវត្ត សូមពិចារណាឧទាហរណ៍នៃការអញ្ជើញមនុស្សភាគីទីបីឱ្យចូលទៅក្នុងបញ្ហានេះ ហើយផ្តល់ការសម្រេចចិត្តដើម្បីដោះស្រាយបញ្ហាដែលមិនទាន់បានដោះស្រាយ។

ឧបមាថាក្រុមហ៊ុនផលិតរថយន្ត ឬក្រុមហ៊ុនបច្ចេកវិទ្យាបើកបរដោយខ្លួនឯងបានរៀបចំសម្រាប់ប្រតិបត្តិករមនុស្សពីចម្ងាយ ដើម្បីអាចចូលទៅគ្រប់គ្រងការបើកបរយានយន្តនៅក្នុងកងនាវារបស់ពួកគេ។ ប្រតិបត្តិករ​មនុស្ស​កំពុង​អង្គុយ​នៅ​ការិយាល័យ​ឆ្ងាយៗ ឬ​ស្រដៀង​នឹង​ការ​កំណត់។ តាមរយៈប្រព័ន្ធកុំព្យូទ័រ ពួកគេអាចមើលទិដ្ឋភាពនៃការបើកបរតាមរយៈការចូលទៅកាន់កាមេរ៉ា និងឧបករណ៍ចាប់សញ្ញាផ្សេងទៀតដែលផ្ទុកនៅលើរថយន្តដែលបើកបរដោយខ្លួនឯង។ សម្រាប់ពួកគេ នេះស្ទើរតែដូចជាការលេងហ្គេមវីដេអូអនឡាញមួយ ទោះជាយ៉ាងនេះក្តី ស្ថានភាពក្នុងជីវិតពិតអាចមានផលវិបាកធ្ងន់ធ្ងរ។

ប្រព័ន្ធ AI និងអ្នកបើកបរមនុស្សនៅខាងក្នុងរថយន្តកំពុងបើករថយន្តពាក់កណ្តាលស្វយ័តចុះពីលើផ្លូវដ៏វែងមួយ។ ភ្លាមៗនោះ AI ចង់ចូលទៅក្នុងប្រឡាយ។ អ្នកបើកបរមនុស្សមិនចង់ធ្វើបែបនេះទេ។ អ្នក​ទាំង​ពីរ​ប៉ះ​ទង្គិច​គ្នា​ជុំវិញ​ការ​គ្រប់​គ្រង​ការ​បើកបរ។

តើ​នេះ​នឹង​ត្រូវ​ដោះស្រាយ​ដោយ​របៀប​ណា?

យើងអាចកំណត់ជាមុនថា មនុស្សតែងតែឈ្នះ។ សន្មតថាយើងជ្រើសរើសមិនធ្វើវា។

យើងអាចកំណត់ជាមុនថា AI តែងតែឈ្នះ។ សន្មតថាយើងជ្រើសរើសមិនធ្វើដូច្នេះ។ សរុបមក យើងមិនបានអនុម័តច្បាប់ណាមួយនោះទេ ក្រៅពីយើងសម្រេចចិត្តអនុញ្ញាតឱ្យមនុស្សភាគីទីបីធ្វើអន្តរាគមន៍ និងដោះស្រាយការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈនៃធម្មជាតិសំខាន់ៗណាមួយ។

ក្នុង​ករណី​ប្រើប្រាស់​នេះ AI និង​អ្នកបើកបរ​មនុស្ស​នៅ​កង់​កំពុង​ប្រយុទ្ធ​ដើម្បី​គ្រប់គ្រង​ការ​បើកបរ។ នេះ​ត្រូវ​បាន​គេ​និយាយ​ថា​បញ្ជូន​ទៅ​ប្រតិបត្តិករ​មនុស្ស​ដាច់​ស្រយាល (មនុស្ស​ភាគី​ទីបី​របស់​យើង)។ ប្រតិបត្តិកររបស់មនុស្សពីចម្ងាយពិនិត្យមើលនូវអ្វីដែលកំពុងកើតឡើង ហើយសម្រេចចិត្តកាច់ចង្កូតចេញពីប្រឡាយ ហាក់ដូចជាបដិសេធនូវអ្វីដែល AI កំពុងព្យាយាមធ្វើ។ ក្នុងពេលជាមួយគ្នានេះ ឧបមាថា ប្រតិបត្តិករមនុស្សពីចម្ងាយ ដឹកនាំទៅក្នុងចរាចរណ៍ដែលកំពុងមកដល់ ដែលប្រហែលជាមិនមាន AI ឬអ្នកបើកបរមនុស្សនៅក្នុងរថយន្តមិនចង់ធ្វើនោះទេ។

ចំនុចនោះគឺថាវិធីដែលច្បាប់នេះត្រូវបានអនុវត្តគឺថាប្រតិបត្តិកររបស់មនុស្សភាគីទីបីអាចបដិសេធទាំងស្រុងទាំង AI និងមនុស្សនៅក្នុងរង្វង់។ ថាតើវានឹងបង្កើតលទ្ធផលល្អឬអត់នោះ វាមិនប្រាកដទេ

ខ្ញុំ​នឹង​ប្រើ​ឧទាហរណ៍​នេះ​ដើម្បី​រំលេច​ការ​យល់​ដឹង​បន្ថែម​មួយ​ចំនួន​លើ​បញ្ហា​ទាំង​នេះ។

អ្នក​មិន​អាច​ធ្វើ​ការ​សន្មត់​ដែល​ថា​ដោយ​សារ​តែ​ច្បាប់​មួយ​ក្នុង​ចំណោម​ច្បាប់​ទាំង​នេះ​ត្រូវ​បាន​គេ​ដាក់​ចូល​ក្នុង​កន្លែង​ដែល​លទ្ធផល​នៃ​ការ​ខ្វែង​គំនិត​គ្នា​ដែល​បាន​ដោះស្រាយ​នោះ​គឺ​ជា​លទ្ធផល​ល្អ​ដែល​ត្រូវ​បាន​ធានា។ វាប្រហែលជាមិនមែនទេ។ មិន​មាន​ក្បួន​តម្រា​ត្រឹមត្រូវ​ដែល​អាច​ជ្រើសរើស​បាន​ទេ។

បន្ទាប់មក ច្បាប់ទាំងនេះមួយចំនួនប្រហែលជាមិនអាចអនុវត្តបានឡើយ។

ពិចារណាឧទាហរណ៍នៃប្រតិបត្តិករមនុស្សពីចម្ងាយដែលធ្វើអន្តរាគមន៍នៅពេលដែល AI និងអ្នកបើកបរមនុស្សកំពុងឈ្លោះប្រកែកគ្នាលើការគ្រប់គ្រងការបើកបរ។ វាអាចចំណាយពេលច្រើនវិនាទីសម្រាប់ប្រតិបត្តិកររបស់មនុស្សពីចម្ងាយដើម្បីស្វែងរកអ្វីដែលកំពុងកើតឡើង។ នៅពេលនោះ រថយន្តអាចនឹងធ្លាក់ចូលទៅក្នុងប្រឡាយ ឬមានលទ្ធផលមិនល្អផ្សេងទៀត។ ម្យ៉ាងទៀត ឧបមាថា ទីតាំងរបស់យានជំនិះរារាំងការចូលប្រើពីចម្ងាយ ដូចជានៅកន្លែងខ្លះដែលមិនមានការតភ្ជាប់បណ្តាញអេឡិចត្រូនិច។ ឬប្រហែលជាមុខងារបណ្តាញរបស់យានជំនិះមិនដំណើរការនៅពេលជាក់លាក់នោះ។

ដូចដែលអ្នកអាចឃើញ ច្បាប់អាចមើលទៅមិនស្អាតនៅលើក្រដាស បើទោះបីជាការដាក់ច្បាប់ទៅក្នុងការប្រើប្រាស់ជាក់ស្តែងអាចជាវិធីសាស្រ្តដ៏លំបាក ឬមានឱកាសខ្ពស់ក៏ដោយ។ សូមមើលការគ្របដណ្តប់ភ្នែកដ៏សំខាន់របស់ខ្ញុំនៅលើប្រតិបត្តិករពីចម្ងាយនៃយានយន្តស្វយ័ត និងរថយន្តដែលបើកបរដោយខ្លួនឯងនៅ តំណភ្ជាប់នៅទីនេះ.

ខ្ញុំចង់និយាយដោយសង្ខេបអំពីប្រធានបទពាក់ព័ន្ធមួយទៀត ដែលខ្ញុំនឹងរៀបរាប់ឱ្យកាន់តែស៊ីជម្រៅនៅក្នុងការវិភាគនាពេលខាងមុខ។

កង្វល់មួយដែលកំពុងកើនឡើងអំពីរថយន្តស្វយ័ត និងរថយន្តបើកបរដោយខ្លួនឯងដែលមានពាក់កណ្តាលស្វ័យប្រវត្តិគឺជាអ្វីដែលគេហៅថា រោគសញ្ញាដំឡូងក្តៅ.

នេះជាកិច្ចព្រមព្រៀង។

ប្រព័ន្ធបើកបរ AI និងមនុស្សកំពុងបើកបររួមគ្នា។ ឧប្បត្តិហេតុធ្ងន់ធ្ងរកើតឡើង។ AI ត្រូវ​បាន​គេ​ដាក់​កម្មវិធី​ឱ្យ​ឈប់​ពី​ការងារ​បើក​បរ​ ហើយ​បង្វែរ​វត្ថុ​មក​មនុស្ស​វិញ​ពេល​មាន​គ្រោះ​ថ្នាក់​អាក្រក់​កើតឡើង។ វាហាក់ដូចជា "សមហេតុសមផល" ដែលយើងហាក់ដូចជាកំពុងហៅច្បាប់អំពីមនុស្សថាជា "អ្នកឈ្នះ" លំនាំដើមនៅក្នុងការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈណាមួយ។

ប៉ុន្តែ AI ទម្លាក់​ចេញ​អាច​នឹង​ធ្វើ​ឡើង​ក្នុង​គោល​បំណង​មិន​សមរម្យ​ជាង​នេះ​ឬ​ចាត់​ទុក​ថា​ជា​គោល​បំណង​អាក្រក់។ វា​អាច​ថា​ក្រុមហ៊ុន​ផលិត​រថយន្ត ឬ​ក្រុមហ៊ុន​បច្ចេកវិទ្យា​បើកបរ​ដោយ​ខ្លួនឯង​មិន​ចង់​ឲ្យ AI របស់​ពួកគេ​ត្រូវ​បាន​គេ​ចាត់​ទុក​ថា​ជា “ភាគី​មាន​កំហុស” នៅពេល​មាន​គ្រោះថ្នាក់​រថយន្ត​កើតឡើង។ ដើម្បី​ជៀស​វាង​ការ​មិន​ជាប់​គាំង​បែប​នេះ AI ប្រគល់​វត្ថុ​បញ្ជា​ទៅ​មនុស្ស​ភ្លាមៗ។ Voila, មនុស្សឥឡូវត្រូវបានសន្មតថាទទួលខុសត្រូវទាំងស្រុងសម្រាប់រថយន្ត។

អ្នកទាត់គឺថាឧបមាថា AI ធ្វើប្រតិបត្តិការនេះដោយអនុញ្ញាតឱ្យនិយាយថានៅសល់មួយវិនាទីដើម្បីទៅមុនពេលគាំងកើតឡើង។

តើ​មនុស្ស​ពិត​ជា​មាន​ពេល​វេលា​ណា​មួយ​ដើម្បី​ជៀស​វាង​ការ​ធ្លាក់​យន្តហោះ​មែន​ទេ?

ទំនងមិនមែនទេ។

ឧបមាថា AI ធ្វើការចែកចេញជាពីរបីមិល្លីវិនាទី ឬណាណូវិនាទីដែលនៅសល់ដើម្បីដំណើរការ។ ខ្ញុំហ៊ាននិយាយថា មនុស្សពិតជាគ្មានឱកាសក្នុងការធ្វើអ្វីដើម្បីបញ្ចៀសការធ្លាក់យន្តហោះនោះទេ។

តាម​ទស្សនៈ​របស់​ក្រុមហ៊ុន​ផលិត​រថយន្ត ឬ​ក្រុមហ៊ុន​រថយន្ត​ដែល​បើកបរ​ដោយ​ខ្លួនឯង ពួកគេ​អាច​ព្យាយាម​ធ្វើ​ដូចជា​ដៃ​ស្អាត​នៅពេល​មាន​គ្រោះថ្នាក់​រថយន្ត​កើតឡើង។ រថយន្ត​ត្រូវ​បាន​មនុស្ស​បើក​បរ​។ AI មិនបានបើកឡានទេ។ ការសន្និដ្ឋានតែមួយគត់ "ឡូជីខល" ហាក់ដូចជាថាមនុស្សត្រូវតែមានកំហុសហើយ AI ត្រូវតែគ្មានកំហុសទាំងស្រុង។

វា​ជា​ដុំ​ដែក។

ខ្ញុំនឹងពិភាក្សារឿងនេះឱ្យកាន់តែស៊ីជម្រៅនៅក្នុងជួរឈរនាពេលខាងមុខ។

សន្និដ្ឋាន

ការមិនចុះសម្រុងនឹងវិជ្ជាជីវៈនឹងកើតឡើង។

វាពិបាកក្នុងការស្រមៃមើលកិច្ចការស្មុគ្រស្មាញណាមួយដែលមានភាគីទាំងពីរសហការគ្នាអនុវត្តការងារ ហើយដែលមិនដែលមានការខ្វែងគំនិតគ្នាខាងវិជ្ជាជីវៈណាមួយកើតឡើងនោះទេ។ វាហាក់ដូចជា Fantasyland ឬយ៉ាងហោចណាស់ក៏កម្រមានណាស់។

សព្វថ្ងៃនេះ យើងមានឧទាហរណ៍ជាច្រើនពីមនុស្សទៅមនុស្សនៃការខ្វែងគំនិតគ្នាក្នុងវិជ្ជាជីវៈ ដែលដំណោះស្រាយប្រចាំថ្ងៃត្រូវបានដោះស្រាយដោយសន្តិវិធី និងសមហេតុផលតាមមធ្យោបាយមួយ ឬមធ្យោបាយផ្សេងទៀត។ ជាការពិត ជារឿយៗយើងរៀបចំស្ថានការណ៍ដោយចេតនា ដើម្បីជំរុញឱ្យមានការខ្វែងគំនិតគ្នាក្នុងវិជ្ជាជីវៈ។ អ្នក​ប្រហែល​ជា​ប្រកែក​ថា​នេះ​បង្ហាញ​ពី​ប្រាជ្ញា​ដ៏​ល្បី​ល្បាញ​ដែល​ពេល​ខ្លះ​ក្បាល​ពីរ​ល្អ​ជាង​មួយ។

នៅពេលដែល AI កាន់តែរីករាលដាល យើងនឹងមានអ្នកអនុវត្តភារកិច្ចពីរភាគី AI ទៅមនុស្ស ឬមនុស្សទៅ AI ជាច្រើន ហើយនឹងមាន ការមិនចុះសម្រុងនឹងវិជ្ជាជីវៈ ដែលនឹងកើតឡើង។ វិធីសាស្រ្តខ្ជិលគឺតែងតែបង្អង់មនុស្ស។ នេះប្រហែលជាមិនមែនជាវិធីសាស្រ្តសមស្របបំផុតនោះទេ។ AI អាចជាជម្រើសល្អជាង។ ឬមួយក្នុងចំនោមច្បាប់ដែលបានរៀបរាប់ខាងលើ អាចជាវិធីសាស្រ្តដែលល្អជាង។

មាន​ខ្សែ​ប្រាជ្ញា​ដែល​និយាយ​ជា​ញឹកញាប់​ថា យើង​ទាំង​អស់​គ្នា​គួរ​តែ​អាច​យល់​ព្រម​មិន​យល់​ស្រប ទោះ​បី​ជា​ពេល​ដែល​វា​មក​ដល់​ខ្សែ ជួនកាល​ការ​ខ្វែង​គំនិត​គ្នា​ត្រូវ​តែ​ដោះ​ស្រាយ​ដោយ​មិន​ច្បាស់​លាស់ បើ​សិន​ជា​បញ្ហា​នៅ​នឹង​ដៃ​នឹង​នាំ​ទៅ​រក​គ្រោះ​មហន្តរាយ​មិន​អាច​ដឹង​បាន។ យើង​មិន​អាច​ទុក​ឱ្យ​ការ​ខ្វែង​គំនិត​គ្នា​នៅ​លើ​ដើម​ទំពាំងបាយជូរ​នោះ​ទេ។ ពេលវេលាអាចជារឿងសំខាន់ ហើយជីវិតអាចនឹងមានបញ្ហា។

មានតម្រូវការច្បាស់លាស់សម្រាប់មធ្យោបាយប្រុងប្រយ័ត្នមួយចំនួនដើម្បីដោះស្រាយការខ្វែងគំនិតគ្នា ទោះបីជាមិនចាំបាច់យល់ព្រមក៏ដោយ រួមទាំងពេលដែល AI និងមនុស្សនៅក្នុងរង្វង់មិនបានឃើញផ្ទាល់ភ្នែក ឬបៃទៅបៃ។

ខ្ញុំជឿជាក់ថាអ្នកនឹងមិនយល់ស្របនឹងការឈ្លោះប្រកែកគ្នាដែលអាចយល់ស្របទាំងស្រុងនោះទេ។

ប្រភព៖ https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- the-pilot-and-co-pilot- disagreed-pre-to-take-off-and-abruptly-opted-taxi-back-to-the-terminal-and-go-their-separate-ways/