ក្រមសីលធម៌ AI បន្លឺសំឡេងរោទិ៍អំពីភាពលំអៀងនៃ AI ដែលកំពុងលេចចេញនៅក្នុងមាត្រដ្ឋានសកលលោក ជាពិសេសត្រូវបានជំរុញតាមរយៈប្រព័ន្ធស្វ័យភាពពេញលេញ។

ផ្លាតូ​បាន​និយាយ​យ៉ាង​ល្បី​ថា ការ​សម្រេច​ចិត្ត​ល្អ​គឺ​ផ្អែក​លើ​ចំណេះ​ដឹង និង​មិន​មែន​លើ​លេខ​ទេ។

ការយល់ដឹងដ៏ប៉ិនប្រសប់នេះ ហាក់បីដូចជាមានភាពអស្ចារ្យអំពីបញ្ញាសិប្បនិម្មិត (AI) នាពេលបច្ចុប្បន្ននេះ។

អ្នកឃើញហើយ ទោះបីជាមានចំណងជើងដ៏គួរឱ្យភ្ញាក់ផ្អើលដែលប្រកាសថា AI បានឈានដល់ការយល់ឃើញដូចម្ដេច ហើយបង្កប់នូវចំណេះដឹង និងការវែកញែករបស់មនុស្សក៏ដោយ សូមដឹងថា អាយភីអាយ អាយ អាយ ដែលហួសកម្រិតនេះគឺជាការបំផ្លើសបំផ្លិចបំផ្លាញ ព្រោះយើងនៅតែពឹងផ្អែកលើការបំផ្លិចបំផ្លាញនៃចំនួនក្នុងការសម្រេចចិត្តលើក្បួនដោះស្រាយនាពេលបច្ចុប្បន្ននេះ (ADM ) ដូចដែលបានអនុវត្តដោយប្រព័ន្ធ AI ។ សូម្បីតែ Machine Learning (ML) និង Deep Learning (DL) មានការផ្គូផ្គងគំរូគណនា ដែលមានន័យថាលេខនៅតែជាស្នូលនៃការប្រើប្រាស់ ML/DL ដ៏ខ្ពង់ខ្ពស់។

យើង​មិន​ដឹង​ថា​តើ AI ឈាន​ដល់​អារម្មណ៍​អាច​ធ្វើ​ទៅ​បាន​ឬ​អត់។ អាចជា ប្រហែលជាមិនមែនទេ។ គ្មាន​នរណា​អាច​និយាយ​បាន​ច្បាស់​ថា​តើ​រឿង​នេះ​អាច​កើត​ឡើង​ដោយ​របៀប​ណា។ អ្នកខ្លះជឿថា យើងនឹងកែលម្អកិច្ចខិតខំប្រឹងប្រែង AI គណនារបស់យើងជាលំដាប់ ដែលទម្រង់នៃអារម្មណ៍នឹងកើតឡើងដោយឯកឯង។ អ្នកផ្សេងទៀតគិតថា AI អាចនឹងចូលទៅក្នុងប្រភេទមួយនៃ supernova នៃការគណនា ហើយឈានដល់ការយល់ឃើញច្រើនតាមចិត្តរបស់វា (ជាទូទៅគេហៅថាឯកវចនៈ)។ សម្រាប់ព័ត៌មានបន្ថែមអំពីទ្រឹស្តីទាំងនេះអំពីអនាគតនៃ AI សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ.

ដូច្នេះ​កុំ​ជឿ​ខុស​ថា AI សម័យ​នេះ​អាច​គិត​ដូច​មនុស្ស។ ខ្ញុំគិតថាសំណួរបានឈានទៅដល់ការលើកឡើងរបស់ផ្លាតូ ថាតើយើងអាចមានការសម្រេចចិត្តល្អដោយផ្អែកលើ AI គណនាជាជាងលើ AI អារម្មណ៍។ អ្នក​ប្រហែល​ជា​ភ្ញាក់​ផ្អើល​ដែល​បាន​ដឹង​ថា ខ្ញុំ​នឹង​អះអាង​ថា យើង​ពិត​ជា​អាច​មាន​ការ​សម្រេច​ចិត្ត​ល្អ​ដែល​ត្រូវ​បាន​ធ្វើ​ឡើង​ដោយ​ប្រព័ន្ធ AI ប្រចាំថ្ងៃ។

ផ្នែកម្ខាងទៀតនៃកាក់នោះគឺថា យើងក៏អាចមានប្រព័ន្ធ AI ប្រចាំថ្ងៃដែលធ្វើការសម្រេចចិត្តមិនល្អផងដែរ។ ការសម្រេចចិត្តរលួយ។ ការសម្រេចចិត្តដែលសម្បូរទៅដោយភាពលំអៀង និងវិសមភាព។ អ្នកប្រហែលជាដឹងហើយថា នៅពេលដែលយុគសម័យចុងក្រោយបង្អស់របស់ AI បានចាប់ផ្តើម មានការរំភើបយ៉ាងខ្លាំងចំពោះអ្វីដែលមនុស្សមួយចំនួនហៅថា អាយអេសដើម្បីភាពល្អ. ជាអកុសល យើងចាប់ផ្តើមធ្វើសាក្សីដោយភាពរំភើបរីករាយ អាយអេសសម្រាប់អាក្រក់. ជាឧទាហរណ៍ ប្រព័ន្ធសម្គាល់មុខដែលមានមូលដ្ឋានលើ AI ជាច្រើនត្រូវបានបង្ហាញថាមានផ្ទុកនូវភាពលំអៀងជាតិសាសន៍ និងលម្អៀងយេនឌ័រ ដែលខ្ញុំបានពិភាក្សានៅ តំណភ្ជាប់នៅទីនេះ.

ខំប្រឹងទប់ទល់ អាយអេសសម្រាប់អាក្រក់ កំពុងដំណើរការយ៉ាងសកម្ម។ ក្រៅពីស្រែកថ្ងូរ ផ្នែកច្បាប់ ការខិតខំប្រឹងប្រែងក្នុងការទប់ទល់នឹងការប្រព្រឹត្តខុស វាក៏មានការជំរុញយ៉ាងសំខាន់ឆ្ពោះទៅរកការទទួលយកក្រមសីលធម៌ AI ដើម្បីកែតម្រូវភាពអាក្រក់របស់ AI ។ គំនិតនេះគឺថាយើងគួរតែទទួលយក និងគាំទ្រគោលការណ៍សីលធម៌ AI សំខាន់ៗសម្រាប់ការអភិវឌ្ឍន៍ និងការអនុវត្តរបស់ AI ដើម្បីធ្វើដូច្នេះដើម្បីកាត់បន្ថយ។ អាយអេសសម្រាប់អាក្រក់ ហើយក្នុងពេលដំណាលគ្នាផ្សព្វផ្សាយ និងផ្សព្វផ្សាយការពេញចិត្ត អាយអេសដើម្បីភាពល្អ.

ការគ្របដណ្តប់យ៉ាងទូលំទូលាយរបស់ខ្ញុំអំពី AI Ethics និង Ethical AI អាចរកបាននៅ តំណនេះនៅទីនេះ និង តំណនេះនៅទីនេះ, គ្រាន់តែឈ្មោះមួយចំនួន។

សម្រាប់ការពិភាក្សានៅទីនេះ ខ្ញុំចង់លើកយកទិដ្ឋភាពដែលគួរឱ្យព្រួយបារម្ភជាពិសេសអំពី AI ដែលអ្នកនៅក្នុងសង្វៀន AI Ethics មានការសោកស្ដាយយ៉ាងត្រឹមត្រូវ និងព្យាយាមបង្កើនការយល់ដឹងអំពីវា។ បញ្ហា​ដែល​គួរ​ឲ្យ​សង្វេគ និង​មិន​យល់​ស្រប គឺ​ពិត​ជា​ងាយ​ស្រួល​ក្នុង​ការ​ចង្អុល​បង្ហាញ។

វា​នៅ​ទីនេះ: AI មានសក្ដានុពលក្នុងពិភពពិតនៃការផ្សព្វផ្សាយ AI លំអៀងក្នុងកម្រិតពិភពលោកដ៏គួរឱ្យព្រួយបារម្ភ។

ហើយនៅពេលដែលខ្ញុំនិយាយថា "តាមមាត្រដ្ឋាន" នេះមានន័យថា មាត្រដ្ឋានដ៏ធំនៅទូទាំងពិភពលោក។ មាត្រដ្ឋានគួរឱ្យអស់សំណើច។ មាត្រដ្ឋានដែលចេញពីមាត្រដ្ឋាន។

មុនពេលដែលខ្ញុំស្វែងយល់ពីរបៀបដែលការធ្វើមាត្រដ្ឋាននៃភាពលំអៀង AI-steeped នេះនឹងកើតឡើង សូមប្រាកដថាយើងទាំងអស់គ្នាមានភាពស្រដៀងគ្នានៃរបៀបដែល AI អាចបញ្ចូលភាពលំអៀង និងវិសមភាពដែលមិនសមហេតុផល។ សូមរំលឹកម្តងទៀតថា នេះមិនមែនជាប្រភេទមនោសញ្ចេតនាទេ។ នេះ​ជា​សមត្ថភាព​គណនា​ទាំងអស់​។

អ្នកប្រហែលជាមានការងឿងឆ្ងល់អំពីរបៀបដែល AI អាចធ្វើឱ្យមានភាពលំអៀង និងអសមធម៌ដែលមនុស្សធ្វើបែបនេះ។ យើងមានទំនោរគិតថា AI មានភាពអព្យាក្រិត្យទាំងស្រុង មិនលំអៀង គ្រាន់តែជាម៉ាស៊ីនដែលមិនមានចលនារំជើបរំជួល និងការគិតដ៏អាក្រក់ដែលមនុស្សអាចមាន។ មធ្យោបាយមួយក្នុងចំណោមមធ្យោបាយទូទៅបំផុតនៃ AI ដែលធ្លាក់ចូលទៅក្នុងភាពលំអៀង និងភាពមិនស្មើគ្នា កើតឡើងនៅពេលប្រើ Machine Learning និង Deep Learning មួយផ្នែកដែលជាលទ្ធផលនៃការពឹងផ្អែកលើទិន្នន័យដែលប្រមូលបានអំពីរបៀបដែលមនុស្សកំពុងធ្វើការសម្រេចចិត្ត។

ទុកឱ្យខ្ញុំនិយាយមួយភ្លែត។

ML/DL គឺជាទម្រង់នៃការផ្គូផ្គងលំនាំគណនា។ វិធីសាស្រ្តធម្មតាគឺអ្នកប្រមូលផ្តុំទិន្នន័យអំពីកិច្ចការធ្វើការសម្រេចចិត្ត។ អ្នកបញ្ចូលទិន្នន័យទៅក្នុងម៉ូដែលកុំព្យូទ័រ ML/DL ។ គំរូទាំងនោះស្វែងរកលំនាំគណិតវិទ្យា។ បន្ទាប់ពីស្វែងរកគំរូបែបនេះ ប្រសិនបើរកឃើញនោះ ប្រព័ន្ធ AI នឹងប្រើលំនាំទាំងនោះនៅពេលជួបទិន្នន័យថ្មី។ នៅពេលបង្ហាញទិន្នន័យថ្មី គំរូដែលផ្អែកលើ "ទិន្នន័យចាស់" ឬទិន្នន័យប្រវត្តិសាស្រ្តត្រូវបានអនុវត្តដើម្បីបង្ហាញការសម្រេចចិត្តបច្ចុប្បន្ន។

ខ្ញុំ​គិត​ថា​អ្នក​អាច​ទាយ​ថា​តើ​នេះ​កំពុង​ទៅ​ណា​។ ប្រសិនបើ​មនុស្ស​ដែល​បាន​បង្កើត​គំរូ​តាម​ការ​សម្រេច​ចិត្ត​បាន​រួម​បញ្ចូល​ការ​លំអៀង​ដែល​មិន​លំអៀង​នោះ​គឺ​ថា​ទិន្នន័យ​បាន​ឆ្លុះ​បញ្ចាំង​ពី​ចំណុច​នេះ​តាម​វិធី​ដែល​មាន​ភាព​ទន់ភ្លន់ ប៉ុន្តែ​សំខាន់។ ការផ្គូផ្គង​គំរូ​ការ​សិក្សា​ដោយ​ម៉ាស៊ីន ឬ​ការ​រៀន​ជ្រៅ​នឹង​ព្យាយាម​ធ្វើ​ត្រាប់តាម​ទិន្នន័យ​តាម​គណិតវិទ្យា។ មិន​មាន​ភាព​ដូច​គ្នា​នៃ​សុភវិនិច្ឆ័យ ឬ​ទិដ្ឋភាព​មនោសញ្ចេតនា​ផ្សេង​ទៀត​នៃ​ការ​បង្កើត​គំរូ​ដែល​បង្កើត​ដោយ AI ក្នុង​មួយ។

ជាងនេះទៅទៀត អ្នកអភិវឌ្ឍន៍ AI ប្រហែលជាមិនដឹងពីអ្វីដែលកំពុងកើតឡើងនោះទេ។ គណិតវិទ្យា arcane នៅក្នុង ML/DL អាចធ្វើឱ្យវាពិបាកក្នុងការបំបាត់ភាពលំអៀងដែលលាក់នៅពេលនេះ។ អ្នកនឹងសង្ឃឹមយ៉ាងត្រឹមត្រូវ ហើយរំពឹងថាអ្នកអភិវឌ្ឍន៍ AI នឹងសាកល្បងសម្រាប់ភាពលំអៀងដែលអាចកប់បាន ទោះបីជាវាពិបាកជាងវាក៏ដោយ។ ឱកាសដ៏រឹងមាំមួយមានដែលថា ទោះបីជាមានការធ្វើតេស្តយ៉ាងទូលំទូលាយថានឹងមានភាពលំអៀងនៅតែបង្កប់នៅក្នុងគំរូដែលត្រូវគ្នានឹងគំរូនៃ ML/DL ក៏ដោយ។

អ្នក​អាច​ប្រើ​សុភាសិត​ដ៏​ល្បី​ឬ​មិន​ល្អ​ខ្លះ​នៃ​ការ​ចោល​សំរាម​ក្នុង​ធុង​សំរាម។ រឿងនេះគឺថា នេះគឺស្រដៀងទៅនឹងភាពលំអៀងដែលបញ្ចូលទៅក្នុង insidiously ដូចជាភាពលំអៀងដែលលិចចូលទៅក្នុង AI ។ ក្បួនដោះស្រាយការសម្រេចចិត្ត ឬ ADM នៃ AI axiomatically ក្លាយជាបន្ទុកដោយភាពមិនស្មើគ្នា។

មិនល្អ។

នេះនាំយើងទៅរកបញ្ហានៃភាពលំអៀងរបស់ AI នៅពេលមានមាត្រដ្ឋាន។

ជាដំបូង សូមក្រឡេកមើលពីរបៀបដែលភាពលំអៀងរបស់មនុស្សអាចបង្កើតភាពមិនស្មើគ្នា។ ក្រុមហ៊ុនដែលផ្តល់ប្រាក់កម្ចីទិញផ្ទះសម្រេចចិត្តជួលភ្នាក់ងារប្រាក់កម្ចីទិញផ្ទះ។ ភ្នាក់ងារត្រូវបានគេសន្មត់ថាពិនិត្យមើលសំណើពីអ្នកប្រើប្រាស់ដែលចង់ទទួលបានប្រាក់កម្ចីទិញផ្ទះ។ បន្ទាប់ពីវាយតម្លៃពាក្យសុំ ភ្នាក់ងារធ្វើការសម្រេចចិត្តក្នុងការផ្តល់ប្រាក់កម្ចី ឬបដិសេធប្រាក់កម្ចី។ ងាយ - ស្រួល។

សម្រាប់ជាប្រយោជន៍នៃការពិភាក្សា សូមស្រមៃថាភ្នាក់ងារប្រាក់កម្ចីរបស់មនុស្សអាចវិភាគប្រាក់កម្ចីចំនួន 8 ក្នុងមួយថ្ងៃ ដោយចំណាយពេលប្រហែលមួយម៉ោងក្នុងមួយការត្រួតពិនិត្យ។ ក្នុងសប្តាហ៍ធ្វើការប្រាំថ្ងៃ ភ្នាក់ងារធ្វើការពិនិត្យប្រាក់កម្ចីប្រហែល 40 ដង។ នៅលើមូលដ្ឋានប្រចាំឆ្នាំ ភ្នាក់ងារជាធម្មតាធ្វើប្រហែល 2,000 ការពិនិត្យប្រាក់កម្ចី ផ្តល់ ឬទទួលយកបន្តិច។

ក្រុមហ៊ុនចង់បង្កើនបរិមាណនៃការពិនិត្យប្រាក់កម្ចីរបស់ខ្លួន ដូច្នេះហើយក្រុមហ៊ុនបានជួលភ្នាក់ងារកម្ចីបន្ថែមចំនួន 100 នាក់។ ចូរសន្មត់ថាពួកគេទាំងអស់មានផលិតភាពដូចគ្នា ហើយនេះមានន័យថាឥឡូវនេះយើងអាចដោះស្រាយប្រាក់កម្ចីប្រហែល 200,000 ក្នុងមួយឆ្នាំ (ក្នុងអត្រា 2,000 ការពិនិត្យប្រាក់កម្ចីក្នុងមួយឆ្នាំក្នុងមួយភ្នាក់ងារ)។ វាហាក់បីដូចជាយើងពិតជាបានបង្កើនល្បឿនដំណើរការកម្មវិធីប្រាក់កម្ចីរបស់យើង។

បង្ហាញថាក្រុមហ៊ុនបង្កើតប្រព័ន្ធ AI ដែលអាចធ្វើការត្រួតពិនិត្យប្រាក់កម្ចីដូចគ្នានឹងភ្នាក់ងារមនុស្សដែរ។ AI កំពុងដំណើរការលើម៉ាស៊ីនមេកុំព្យូទ័រក្នុងពពក។ តាមរយៈ​ហេដ្ឋារចនាសម្ព័ន្ធ​ពពក ក្រុមហ៊ុន​អាច​បន្ថែម​ថាមពល​កុំព្យូទ័រ​បាន​យ៉ាង​ងាយស្រួល​ដើម្បី​សម្រួល​ដល់​បរិមាណ​នៃ​ការ​ពិនិត្យ​ប្រាក់កម្ចី​ដែល​អាច​នឹង​ត្រូវការ។

ជាមួយនឹងការកំណត់រចនាសម្ព័ន្ធ AI ដែលមានស្រាប់ ពួកគេអាចធ្វើការពិនិត្យប្រាក់កម្ចី 1,000 ក្នុងមួយម៉ោង។ វាក៏អាចកើតឡើង 24 × 7 ។ មិនមានពេលវិស្សមកាលដែលត្រូវការសម្រាប់ AI ទេ។ មិនមានការសម្រាកអាហារថ្ងៃត្រង់ទេ។ AI ធ្វើការ​ជុំវិញ​នាឡិកា​ដោយ​មិន​មាន​ការ​ច្របូកច្របល់​អំពី​ការ​ធ្វើការ​ហួស​កម្លាំង។ យើងនឹងនិយាយថា ក្នុងល្បឿនប្រហាក់ប្រហែលនោះ AI អាចដំណើរការពាក្យសុំកម្ចីជិត 9 លានក្នុងមួយឆ្នាំ។

សូមកត់សម្គាល់ថា យើងបានមកពីការមានភ្នាក់ងារមនុស្សចំនួន 100 នាក់ ដែលអាចផ្តល់ប្រាក់កម្ចីបាន 200,000 ក្នុងមួយឆ្នាំ ហើយបានលោតច្រើនដងរហូតដល់ចំនួនដែលកើនឡើងច្រើននៃ 9 លានការពិនិត្យក្នុងមួយឆ្នាំតាមរយៈប្រព័ន្ធ AI ។ យើងបានពង្រីកដំណើរការសំណើកម្ចីរបស់យើងយ៉ាងខ្លាំង។ គ្មាន​ការ​សង្ស័យ​ទេ​អំពី​វា។

ត្រៀម​ខ្លួន​សម្រាប់​អ្នក​ទាត់​ដែល​ប្រហែល​ជា​ធ្វើ​ឱ្យ​អ្នក​ធ្លាក់​ពី​កៅអី។

សន្មតថាភ្នាក់ងារមនុស្សមួយចំនួនរបស់យើងកំពុងធ្វើការសម្រេចចិត្តប្រាក់កម្ចីរបស់ពួកគេដោយផ្អែកលើមូលដ្ឋាននៃភាពលំអៀង។ ប្រហែលខ្លះកំពុងផ្តល់កត្តាពូជសាសន៍ជាតួនាទីសំខាន់ក្នុងការសម្រេចចិត្តប្រាក់កម្ចី។ ប្រហែលជាអ្នកខ្លះកំពុងប្រើភេទ។ អ្នកផ្សេងទៀតកំពុងប្រើអាយុ។ ល​ល។

ក្នុងចំណោមការពិនិត្យប្រាក់កម្ចីប្រចាំឆ្នាំចំនួន 200,000 តើមានប៉ុន្មានដែលកំពុងត្រូវបានធ្វើក្រោមការមើលខុសនៃភាពលំអៀងអវិជ្ជមាន និងវិសមភាព? ប្រហែលជា 10% ដែលប្រហែល 20,000 នៃសំណើប្រាក់កម្ចី។ អាក្រក់ជាងនេះទៅទៀត ឧបមាថាវាជា 50% នៃសំណើកម្ចី ក្នុងករណីនេះ មានការពិបាកណាស់ 100,000 ករណីប្រចាំឆ្នាំនៃការសម្រេចចិត្តប្រាក់កម្ចីដែលបានសម្រេចចិត្តខុស។

នោះអាក្រក់ណាស់។ ប៉ុន្តែយើងមិនទាន់បានពិចារណាអំពីលទ្ធភាពដ៏គួរឱ្យភ័យខ្លាចជាងនេះទេ។

ឧបមាថា AI មានភាពលំអៀងលាក់កំបាំងដែលមានកត្តាដូចជា ពូជសាសន៍ ភេទ អាយុ និងកត្តាផ្សេងៗទៀត។ ប្រសិនបើ 10% នៃការវិភាគប្រាក់កម្ចីប្រចាំឆ្នាំត្រូវទទួលរងនូវការមិនពេញចិត្តនេះ យើងមានសំណើកម្ចីចំនួន 900,000 ដែលកំពុងត្រូវបានដោះស្រាយមិនត្រឹមត្រូវ។ នោះច្រើនលើសពីអ្វីដែលភ្នាក់ងារមនុស្សអាចធ្វើបាន ជាចម្បងដោយសារតែទិដ្ឋភាពកម្រិតសំឡេង។ ភ្នាក់ងារទាំង 100 ទាំងនោះ ប្រសិនបើទាំងអស់កំពុងធ្វើការពិនិត្យដោយអសមធម៌ ភាគច្រើនអាចធ្វើបែបនេះលើការពិនិត្យប្រាក់កម្ចីប្រចាំឆ្នាំ 200,000 ។ AI អាច​ធ្វើ​ដូចគ្នា​នេះ​លើ​ទំហំ​ធំ​នៃ​ការ​ពិនិត្យ​ប្រចាំ​ឆ្នាំ 9,000,000។

យាយ!

នេះ​គឺ​ជា​ការ​លំអៀង​យ៉ាង​ខ្លាំង​របស់ AI ក្នុង​មាត្រដ្ឋាន​ដ៏​អស្ចារ្យ។

នៅពេលដែលភាពលំអៀងដែលមិនមានភាពលំអៀងត្រូវបានបញ្ចូលទៅក្នុងប្រព័ន្ធ AI ការធ្វើមាត្រដ្ឋានដូចគ្នាដែលហាក់ដូចជាមានអត្ថប្រយោជន៍ឥឡូវនេះត្រូវបានបើកនៅលើក្បាលរបស់វា ហើយក្លាយជាលទ្ធផលមាត្រដ្ឋានដែលគួរឱ្យក្លែងបន្លំ (និងគួរឱ្យរំខាន) ។ ម៉្យាងវិញទៀត AI អាចជួយសម្រួលដល់មនុស្សកាន់តែច្រើនដែលកំពុងស្នើសុំប្រាក់កម្ចីទិញផ្ទះ។ នៅលើផ្ទៃខាងលើ វាហាក់ដូចជាអស្ចារ្យណាស់។ អាយអេសដើម្បីភាពល្អ. យើងគួរតែងាកមករកខ្លួនយើងវិញ ដើម្បីសន្មតថាពង្រីកឱកាសរបស់មនុស្សក្នុងការទទួលបានប្រាក់កម្ចីដែលត្រូវការ។ ទន្ទឹមនឹងនេះដែរ ប្រសិនបើ AI បានបង្កប់នូវភាពលំអៀង ការធ្វើមាត្រដ្ឋាននឹងជាលទ្ធផលដែលរលួយយ៉ាងខ្លាំង ហើយយើងឃើញថាខ្លួនយើងកំពុងសោកសៅក្នុងភាពច្របូកច្របល់។ អាយអេសសម្រាប់អាក្រក់នៅមាត្រដ្ឋានដ៏ធំពិតប្រាកដ។

សុភាសិត​ដាវ​មុខ​ពីរ។

AI អាចបង្កើនលទ្ធភាពចូលដំណើរការធ្វើការសម្រេចចិត្តសម្រាប់អ្នកដែលកំពុងស្វែងរកសេវាកម្ម និងផលិតផលដែលចង់បាន។ គ្មាន​ការ​រារាំង​កម្លាំង​ពលកម្ម​ដែល​មាន​កម្រិត​មនុស្ស​ទៀត​ទេ។ លេចធ្លោ! គែមម្ខាងទៀតនៃដាវគឺថាប្រសិនបើ AI ផ្ទុកនូវភាពអាក្រក់ដូចជាភាពមិនស្មើគ្នាដែលលាក់កំបាំងនោះ ការធ្វើមាត្រដ្ឋានដ៏ធំដូចគ្នានេះ នឹងផ្សព្វផ្សាយអាកប្បកិរិយាមិនសមរម្យនោះលើមាត្រដ្ឋានដែលមិននឹកស្មានដល់។ ហួសចិត្ត ខុសឆ្គង គួរឲ្យខ្មាស់អៀន ហើយយើងមិនអាចអនុញ្ញាតឱ្យសង្គមធ្លាក់ចូលទៅក្នុងទីជ្រៅដ៏អាក្រក់បែបនេះបានទេ។

អ្នកណាក៏ដោយដែលឆ្ងល់ថាហេតុអ្វីបានជាយើងចាំបាច់ត្រូវគិតគូរពីសារៈសំខាន់នៃក្រមសីលធម៌ AI ឥឡូវនេះគួរតែដឹងថាបាតុភូត AI ធ្វើមាត្រដ្ឋានគឺជាហេតុផលដ៏គួរឱ្យខ្លាចសម្រាប់ការស្វែងរក Ethical AI ។ សូមចំណាយពេលបន្តិចដើម្បីពិចារណាដោយសង្ខេបនូវសិក្ខាបទនៃក្រមសីលធម៌ AI សំខាន់ៗមួយចំនួន ដើម្បីបង្ហាញពីអ្វីដែលគួរតែជាការផ្តោតសំខាន់សម្រាប់នរណាម្នាក់ដែលបង្កើត បង្កើត ឬប្រើប្រាស់ AI ។

ជាឧទាហរណ៍ ដូចមានចែងដោយបុរីវ៉ាទីកង់ ទីក្រុងរ៉ូមអំពាវនាវឱ្យមានក្រមសីលធម៌ AI ហើយដូចដែលខ្ញុំបានគ្របដណ្តប់ស៊ីជម្រៅ តំណភ្ជាប់នៅទីនេះទាំងនេះគឺជាគោលការណ៍សីលធម៌ AI ចម្បងចំនួនប្រាំមួយដែលបានកំណត់របស់ពួកគេ៖

  • តម្លាភាព: ជាគោលការណ៍ ប្រព័ន្ធ AI ត្រូវតែអាចពន្យល់បាន។
  • បញ្ចូល៖ តម្រូវការរបស់មនុស្សគ្រប់រូបត្រូវតែយកមកពិចារណា ដើម្បីឲ្យមនុស្សគ្រប់រូបទទួលបានអត្ថប្រយោជន៍ ហើយបុគ្គលទាំងអស់អាចទទួលបានលក្ខខណ្ឌល្អបំផុតដើម្បីបង្ហាញពីខ្លួនឯង និងអភិវឌ្ឍ។
  • ទំនួលខុសត្រូវ: អ្នកដែលរចនា និងដាក់ពង្រាយការប្រើប្រាស់ AI ត្រូវតែដំណើរការដោយការទទួលខុសត្រូវ និងតម្លាភាព
  • មិនលំអៀង៖ កុំបង្កើត ឬធ្វើសកម្មភាពដោយលំអៀង ការពារភាពត្រឹមត្រូវ និងសេចក្តីថ្លៃថ្នូររបស់មនុស្ស
  • ភាពជឿជាក់៖ ប្រព័ន្ធ AI ត្រូវតែអាចដំណើរការដោយភាពជឿជាក់
  • សុវត្ថិភាព និងឯកជនភាព៖ ប្រព័ន្ធ AI ត្រូវតែដំណើរការដោយសុវត្ថិភាព និងគោរពភាពឯកជនរបស់អ្នកប្រើប្រាស់។

ដូចដែលបានបញ្ជាក់ដោយក្រសួងការពារជាតិសហរដ្ឋអាមេរិក (DoD) នៅក្នុងរបស់ពួកគេ។ គោលការណ៍សីលធម៌សម្រាប់ការប្រើប្រាស់បញ្ញាសិប្បនិម្មិត ហើយដូចដែលខ្ញុំបានគ្របដណ្តប់ស៊ីជម្រៅ តំណភ្ជាប់នៅទីនេះនេះគឺជាគោលការណ៍សីលធម៌ AI ចម្បងចំនួនប្រាំមួយរបស់ពួកគេ៖

  • ទទួលខុសត្រូវ: បុគ្គលិក DoD នឹងអនុវត្តកម្រិតនៃការវិនិច្ឆ័យ និងការថែទាំសមស្រប ខណៈពេលដែលនៅតែទទួលខុសត្រូវចំពោះការអភិវឌ្ឍន៍ ការដាក់ពង្រាយ និងការប្រើប្រាស់សមត្ថភាព AI ។
  • សមភាព៖ នាយកដ្ឋាននឹងចាត់វិធានការដោយចេតនា ដើម្បីកាត់បន្ថយភាពលំអៀងដោយអចេតនានៅក្នុងសមត្ថភាព AI ។
  • អាចតាមដានបាន៖ សមត្ថភាព AI របស់នាយកដ្ឋាននឹងត្រូវបានបង្កើតឡើង និងដាក់ឱ្យប្រើប្រាស់ ដែលបុគ្គលិកពាក់ព័ន្ធមានការយល់ដឹងសមស្របអំពីបច្ចេកវិទ្យា ដំណើរការអភិវឌ្ឍន៍ និងវិធីសាស្រ្តប្រតិបត្តិការដែលអនុវត្តចំពោះសមត្ថភាព AI រួមទាំងវិធីសាស្រ្តដែលមានតម្លាភាព និងសវនកម្ម ប្រភពទិន្នន័យ និងនីតិវិធីរចនា និងឯកសារ។
  • អាចជឿទុកចិត្តបាន: សមត្ថភាព AI របស់នាយកដ្ឋាននឹងមានការប្រើប្រាស់ច្បាស់លាស់ និងច្បាស់លាស់ ហើយសុវត្ថិភាព សុវត្ថិភាព និងប្រសិទ្ធភាពនៃសមត្ថភាពទាំងនោះនឹងត្រូវឆ្លងកាត់ការធ្វើតេស្ត និងការធានានៅក្នុងការប្រើប្រាស់ដែលបានកំណត់នៅទូទាំងវដ្តជីវិតរបស់ពួកគេ។
  • អាចគ្រប់គ្រងបាន៖ នាយកដ្ឋាននឹងរចនា និងវិស្វកម្មសមត្ថភាព AI ដើម្បីបំពេញមុខងារដែលបានគ្រោងទុក ខណៈពេលដែលមានសមត្ថភាពក្នុងការរកឃើញ និងជៀសវាងផលវិបាកដែលមិនចង់បាន និងសមត្ថភាពក្នុងការផ្តាច់ ឬបិទប្រព័ន្ធដែលបានដាក់ពង្រាយ ដែលបង្ហាញពីអាកប្បកិរិយាអចេតនា។

ខ្ញុំក៏បានពិភាក្សាផងដែរអំពីការវិភាគសមូហភាពផ្សេងៗនៃគោលការណ៍សីលធម៌ AI រួមទាំងការគ្របដណ្តប់លើសំណុំដែលបង្កើតឡើងដោយអ្នកស្រាវជ្រាវដែលបានពិនិត្យ និងបង្រួមខ្លឹមសារនៃគោលការណ៍សីលធម៌ AI ជាតិ និងអន្តរជាតិជាច្រើននៅក្នុងក្រដាសដែលមានចំណងជើងថា "ទេសភាពសកលនៃគោលការណ៍ណែនាំសីលធម៌ AI" (បោះពុម្ពផ្សាយ ក្នុង ធម្មជាតិ) ហើយការគ្របដណ្តប់របស់ខ្ញុំរុករកនៅ តំណភ្ជាប់នៅទីនេះដែលនាំទៅដល់បញ្ជីគន្លឹះនេះ៖

  • តម្លាភាព
  • យុត្តិធម៌ និងយុត្តិធម៌
  • ភាពមិនអាក្រក់
  • ការទទួលខុសត្រូវ
  • ភាពឯកជន
  • អត្ថប្រយោជន៍
  • សេរីភាព និងស្វ័យភាព
  • ការជឿទុកចិត្ត
  • និរន្តរភាព
  • សេចក្តីថ្លៃថ្នូរ
  • សាមគ្គីភាព

ដូចដែលអ្នកអាចទាយដោយផ្ទាល់ ការព្យាយាមកំណត់ចំណុចជាក់លាក់នៃគោលការណ៍ទាំងនេះអាចជារឿងពិបាកធ្វើណាស់។ កាន់តែពិសេសជាងនេះទៅទៀត ការខិតខំប្រឹងប្រែងដើម្បីប្រែក្លាយគោលការណ៍ដ៏ទូលំទូលាយទាំងនោះទៅជាអ្វីដែលជាក់ស្តែង និងលម្អិតគ្រប់គ្រាន់ដើម្បីប្រើប្រាស់នៅពេលបង្កើតប្រព័ន្ធ AI ក៏ជាចំណុចពិបាកមួយក្នុងការបំបែក។ វាជាការងាយស្រួលក្នុងការធ្វើការគ្រវីដៃខ្លះៗអំពីអ្វីដែល AI Ethics precepts និងរបៀបដែលពួកគេគួរតែត្រូវបានគេសង្កេតឃើញជាទូទៅ ខណៈពេលដែលវាជាស្ថានភាពស្មុគស្មាញជាងនៅលើការសរសេរកូដ AI ដែលត្រូវតែជាជ័រកៅស៊ូដែលអាចផ្ទៀងផ្ទាត់បានដែលជួបនឹងផ្លូវ។

គោលការណ៍ក្រមសីលធម៌ AI នឹងត្រូវប្រើប្រាស់ដោយអ្នកអភិវឌ្ឍន៍ AI រួមជាមួយនឹងអ្នកដែលគ្រប់គ្រងកិច្ចខិតខំប្រឹងប្រែងក្នុងការអភិវឌ្ឍន៍ AI និងសូម្បីតែអ្នកដែលនៅទីបំផុតអនុវត្ត និងថែទាំប្រព័ន្ធ AI ។ អ្នកពាក់ព័ន្ធទាំងអស់នៅទូទាំងវដ្តជីវិតនៃការអភិវឌ្ឍន៍ និងការប្រើប្រាស់ AI ទាំងមូលត្រូវបានពិចារណាក្នុងវិសាលភាពនៃការគោរពតាមបទដ្ឋានដែលត្រូវបានបង្កើតឡើងនៃ Ethical AI ។ នេះគឺជាការគូសបញ្ជាក់ដ៏សំខាន់មួយចាប់តាំងពីការសន្មត់ជាធម្មតាគឺថា "មានតែអ្នកសរសេរកូដ" ឬអ្នកដែលកម្មវិធី AI ប៉ុណ្ណោះដែលត្រូវប្រកាន់ខ្ជាប់នូវគោលគំនិតសីលធម៌របស់ AI ។ សូម​ដឹង​ថា វា​ត្រូវ​ការ​ភូមិ​មួយ​ដើម្បី​បង្កើត និង​ធ្វើ​ការ​វាយ​តម្លៃ AI ។ ដែលភូមិទាំងមូលត្រូវប្រកាន់ខ្ជាប់នូវក្រមសីលធម៌ AI ។

របៀបដែល AI-Steeped Biasing Scaling ដំណើរការ

ឥឡូវនេះខ្ញុំបាននៅលើតុដែល AI អាចមានភាពលំអៀង យើងបានត្រៀមខ្លួនរួចរាល់ហើយដើម្បីពិនិត្យមើលហេតុផលមួយចំនួនដែលហេតុអ្វីបានជាការធ្វើមាត្រដ្ឋាន AI មានការរំខានខ្លាំង។

ពិចារណាបញ្ជីគន្លឹះនៃហេតុផលមូលដ្ឋានចំនួនដប់៖

  1. ចម្លងបានយ៉ាងងាយស្រួល
  2. ការចំណាយតិចតួចបំផុតដើម្បីធ្វើមាត្រដ្ឋាន
  3. ជាប់គ្នាគួរឱ្យស្អប់ខ្ពើម
  4. កង្វះការឆ្លុះបញ្ចាំងខ្លួនឯង
  5. ការស្តាប់បង្គាប់ពិការភ្នែក
  6. មិនលើកដៃ
  7. អ្នកទទួលដោយមិនសង្ស័យ
  8. ទំនោរ​មិន​ជំរុញ​ឲ្យ​មាន​ការ​ញុះញង់
  9. ភាពមិនពិតនៃយុត្តិធម៌
  10. ពិបាក​បដិសេធ

ខ្ញុំនឹងស្វែងយល់ដោយសង្ខេបនូវចំណុចសំខាន់ៗទាំងនោះ។

នៅពេលអ្នកព្យាយាមបង្កើនកម្លាំងពលកម្មមនុស្ស ហាងឆេងគឺថាការធ្វើដូច្នេះនឹងមានភាពស្មុគស្មាញយ៉ាងខ្លាំង។ អ្នកត្រូវស្វែងរក និងជួលមនុស្ស។ អ្នកត្រូវតែបង្វឹកពួកគេឱ្យធ្វើការងារ។ អ្នក​ត្រូវ​បង់​ប្រាក់​ឱ្យ​ពួក​គេ ហើយ​គិត​ពី​ការ​ចង់​បាន និង​តម្រូវ​ការ​របស់​មនុស្ស។ ប្រៀបធៀបវាទៅនឹងប្រព័ន្ធ AI ។ អ្នកអភិវឌ្ឍវាហើយដាក់វាឱ្យប្រើ។ ក្រៅ​ពី​ចំនួន​នៃ​ការ​ថែទាំ​បន្ត​របស់ AI មួយ​ចំនួន អ្នក​អាច​អង្គុយ​ចុះ ហើយ​អនុញ្ញាត​ឱ្យ​វា​ដំណើរការ​ដោយ​គ្មាន​ទី​បញ្ចប់។

នេះមានន័យថា AI ត្រូវបានចម្លងយ៉ាងងាយស្រួល។ អ្នក​អាច​បន្ថែម​ថាមពល​កុំព្យូទ័រ​បន្ថែម​ទៀត​តាម​ដែល​កិច្ចការ​និង​បរិមាណ​អាច​នឹង​ត្រូវ​ការ (អ្នក​មិន​ត្រូវ​បាន​ជួល​ឬ​បញ្ឈប់)។ ការប្រើប្រាស់ជាសកលគឺធ្វើឡើងដោយការចុចប៊ូតុងមួយ ហើយទទួលបានដោយភាពអាចរកបានទូទាំងពិភពលោកនៃអ៊ីនធឺណិត។ ការធ្វើមាត្រដ្ឋានគឺជាការចំណាយតិចតួចបំផុតបើប្រៀបធៀបទៅនឹងការធ្វើដូចគ្នាជាមួយនឹងកម្លាំងពលកម្មមនុស្ស។

ពលកម្ម​មនុស្ស​មាន​ភាព​មិន​ស៊ីសង្វាក់​គ្នា​គួរ​ឱ្យ​កត់​សម្គាល់។ នៅពេលដែលអ្នកមានក្រុមធំ អ្នកមានប្រអប់សូកូឡាដែលអាចផ្ទៀងផ្ទាត់បាន ដែលអ្នកមិនដឹងថាអ្នកអាចមានអ្វីខ្លះនៅក្នុងដៃរបស់អ្នក។ ប្រព័ន្ធ AI ទំនងជាមានភាពស៊ីសង្វាក់គ្នាយ៉ាងខ្លាំង។ វា​ធ្វើ​សកម្មភាព​ដដែលៗ​ម្តង​ហើយ​ម្តង​ទៀត រាល់​ពេល​សំខាន់​ដូច​គ្នា​នឹង​លើក​ចុង​ក្រោយ។

ជាធម្មតា យើងនឹងពេញចិត្តនឹងភាពស្ថិតស្ថេរ AI ។ ប្រសិនបើមនុស្សងាយនឹងលំអៀង នោះយើងនឹងមានចំណែកខ្លះនៃកម្លាំងពលកម្មរបស់យើង ដែលកំពុងតែវង្វេង។ AI ប្រសិនបើ​គ្មាន​ភាពលម្អៀង​សុទ្ធសាធ​ក្នុង​ការ​សាងសង់​និង​ការ​ខិតខំ​ប្រឹងប្រែង​ក្នុង​ការ​គណនា​របស់​វា​នឹង​មាន​ភាព​ស៊ីសង្វាក់​គ្នា​ជាង​មុន​។ បញ្ហាគឺថាប្រសិនបើ AI មានភាពលំអៀងលាក់កំបាំង ភាពជាប់លាប់ឥឡូវនេះគឺគួរឱ្យស្អប់ខ្ពើមណាស់។ ហាងឆេងគឺថាអាកប្បកិរិយាលំអៀងនឹងត្រូវបានអនុវត្តជាប់លាប់ ម្តងហើយម្តងទៀត។

មនុស្ស​នឹង​សង្ឃឹម​ថា​នឹង​មាន​ការ​ឆ្លុះ​បញ្ចាំង​ពី​ខ្លួន​ឯង​ខ្លះ ហើយ​ប្រហែល​ជា​ចាប់​ខ្លួន​ឯង​ធ្វើ​ការ​សម្រេច​ចិត្ត​ដោយ​លម្អៀង។ ខ្ញុំមិននិយាយថាទាំងអស់នឹងធ្វើដូច្នេះទេ។ ខ្ញុំ​ក៏​មិន​និយាយ​ដែរ​ថា អ្នក​ដែល​ចាប់​ខ្លួន​ឯង​នឹង​ត្រូវ​កែ​កំហុស​របស់​ខ្លួន។ ទោះ​ជា​យ៉ាង​ណា យ៉ាង​ហោច​ណាស់​មនុស្ស​ខ្លះ​ពេល​ខ្លះ​កែ​ខ្លួន។

AI ទំនងជាមិនមានទម្រង់នៃការឆ្លុះបញ្ចាំងដោយខ្លួនឯងតាមការគណនាទេ។ នេះមានន័យថា AI គ្រាន់តែបន្តធ្វើអ្វីដែលខ្លួនកំពុងធ្វើ។ វាហាក់បីដូចជាគ្មានឱកាសដែល AI រកឃើញថាវាកំពុងដំណើរការដោយគ្មានសមធម៌។ ដែលត្រូវបាននិយាយនោះ ខ្ញុំបានពណ៌នាកិច្ចខិតខំប្រឹងប្រែងមួយចំនួនដើម្បីដោះស្រាយជាមួយនឹងបញ្ហានេះ ដូចជាការកសាងសមាសធាតុ AI Ethics នៅក្នុង AI (សូមមើល តំណភ្ជាប់នៅទីនេះ) និងបង្កើត AI ដែលត្រួតពិនិត្យ AI ផ្សេងទៀត ដើម្បីដឹងពីសកម្មភាព AI ដែលគ្មានសីលធម៌ (សូមមើល តំណភ្ជាប់នៅទីនេះ).

ដោយខ្វះការគិតពិចារណាដោយខ្លួនឯង AI ក៏ទំនងជាមានការស្តាប់បង្គាប់ដោយងងឹតងងុលចំពោះអ្វីដែលវាត្រូវបានណែនាំឱ្យធ្វើ។ មនុស្សប្រហែលជាមិនស្តាប់បង្គាប់ទេ។ ឱកាសគឺថាមនុស្សមួយចំនួនដែលកំពុងបំពេញភារកិច្ចនឹងចោទសួរថាតើពួកគេប្រហែលជាត្រូវបានដឹកនាំទៅក្នុងទឹកដីអសមធម៌ដែរឬទេ។ ពួកគេមានទំនោរនឹងបដិសេធពាក្យបញ្ជាដែលគ្មានសីលធម៌ ឬប្រហែលជាទៅផ្លូវអ្នកផ្តល់ព័ត៌មាន (សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ) កុំរំពឹងថា AI សហសម័យប្រចាំថ្ងៃនឹងសួរសំណួរអំពីកម្មវិធីរបស់វា។

យើងងាកទៅរកអ្នកដែលកំពុងប្រើ AI ។ ប្រសិនបើអ្នកកំពុងស្វែងរកប្រាក់កម្ចីទិញផ្ទះ ហើយនិយាយជាមួយមនុស្ស អ្នកអាចនឹងមានការប្រុងប្រយ័ត្នរបស់អ្នកថាតើមនុស្សកំពុងផ្តល់ឱ្យអ្នកនូវការរង្គោះរង្គើដោយយុត្តិធម៌ដែរឬទេ។ នៅពេលប្រើប្រព័ន្ធ AI មនុស្សភាគច្រើនហាក់ដូចជាមិនសូវមានការសង្ស័យទេ។ ពួកគេតែងតែសន្មត់ថា AI មានភាពយុត្តិធម៌ ហើយ ergo មិនទទួលបានការកើនឡើងយ៉ាងឆាប់រហ័សនោះទេ។ AI លេចឡើងដើម្បីបញ្ចុះបញ្ចូលមនុស្សឱ្យចូលទៅក្នុង "វាគ្រាន់តែជាម៉ាស៊ីន" trance ។ លើសពីនេះ វាអាចពិបាកក្នុងការព្យាយាម និងតវ៉ាចំពោះ AI។ ផ្ទុយទៅវិញ ការតវ៉ាអំពីរបៀបដែលអ្នកត្រូវបានប្រព្រឹត្តដោយភ្នាក់ងារមនុស្សគឺមានភាពងាយស្រួលជាង ហើយជាទូទៅត្រូវបានទទួលយក និងសន្មតថាអាចធ្វើទៅបាន។

ទាំងអស់ត្រូវបានប្រាប់ AI ដែលមានភាពលំអៀងមានភាពលំអៀងមានជើងដែលមិនគួរឱ្យគោរពលើមនុស្សដែលមានភាពលំអៀងពោលគឺទាក់ទងនឹងលទ្ធភាពដែល AI បានដាក់ពង្រាយភាពលំអៀងទាំងនោះក្នុងទំហំដ៏ធំសម្បើមដោយធ្វើវាដោយមិនងាយចាប់បានឬមានអ្នកប្រើប្រាស់។ ដឹងពីអ្វីដែលកំពុងកើតឡើងដែលគួរឱ្យរំខាន។

នៅចំនុចប្រសព្វនៃការពិភាក្សានេះ ខ្ញុំចង់ភ្នាល់ថា អ្នកពិតជាចង់បានឧទាហរណ៍បន្ថែមមួយចំនួន ដែលអាចបង្ហាញពីភាពច្របូកច្របល់នៃ AI-steeped លំអៀងតាមខ្នាត។

ខ្ញុំរីករាយដែលអ្នកបានសួរ។

មានគំរូដ៏ពេញនិយមពិសេស និងប្រាកដប្រជាដែលនៅជិតបេះដូងខ្ញុំ។ អ្នកឃើញហើយ ក្នុងសមត្ថភាពរបស់ខ្ញុំក្នុងនាមជាអ្នកជំនាញលើ AI រួមទាំងផលប៉ះពាល់ខាងសីលធម៌ និងផ្នែកច្បាប់ ខ្ញុំត្រូវបានគេសួរជាញឹកញាប់ឱ្យកំណត់ឧទាហរណ៍ជាក់ស្តែងដែលបង្ហាញពីភាពលំបាកនៃក្រមសីលធម៌ AI ដូច្នេះ លក្ខណៈទ្រឹស្តីខ្លះនៃប្រធានបទអាចយល់បានកាន់តែងាយស្រួល។ ផ្នែកមួយដែលរំជើបរំជួលបំផុតដែលបង្ហាញឱ្យឃើញច្បាស់អំពីក្រមសីលធម៌ AI នេះគឺការមកដល់នៃរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដដែលមានមូលដ្ឋានលើ AI ។ វានឹងបម្រើជាករណីប្រើប្រាស់ងាយស្រួល ឬជាឧទាហរណ៍សម្រាប់ការពិភាក្សាយ៉ាងទូលំទូលាយលើប្រធានបទ។

ខាងក្រោមនេះជាសំណួរដែលគួរអោយចាប់អារម្មណ៍ដែលគួរពិចារណា៖ តើការមកដល់នៃរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដដែលមានមូលដ្ឋានលើ AI បំភ្លឺអ្វីទាំងអស់អំពីភាពលំអៀងរបស់ AI ហើយប្រសិនបើដូច្នេះ តើនេះបង្ហាញអ្វីខ្លះ?

ទុកពេលឱ្យខ្ញុំមួយភ្លែតដើម្បីស្រាយសំណួរ។

ជាដំបូង សូមចំណាំថា មិនមានអ្នកបើកបរមនុស្សពាក់ព័ន្ធនឹងរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដនោះទេ។ សូមចងចាំថារថយន្តដែលបើកបរដោយខ្លួនឯងពិតប្រាកដគឺត្រូវបានជំរុញតាមរយៈប្រព័ន្ធបើកបរ AI ។ មិន​ចាំបាច់​មាន​អ្នក​បើក​បរ​មនុស្ស​នៅ​កង់​នោះ​ទេ ហើយ​ក៏​មិន​មាន​ការ​ផ្តល់​ឲ្យ​មនុស្ស​ដើម្បី​បើក​រថយន្ត​ដែរ។ សម្រាប់ការគ្របដណ្តប់យ៉ាងទូលំទូលាយ និងបន្តរបស់ខ្ញុំនៃយានយន្តស្វយ័ត (AVs) និងជាពិសេសរថយន្តដែលបើកបរដោយខ្លួនឯង សូមមើល តំណភ្ជាប់នៅទីនេះ.

ខ្ញុំចង់បញ្ជាក់បន្ថែមទៀតថាតើវាមានន័យយ៉ាងម៉េចនៅពេលខ្ញុំនិយាយអំពីឡានបើកបរដោយខ្លួនឯង។

ស្វែងយល់ពីកម្រិតនៃរថយន្តបើកបរដោយខ្លួនឯង

ក្នុងនាមជាការបញ្ជាក់មួយរថយន្តបើកបរដោយខ្លួនឯងគឺជាប្រភេទមួយដែលអាយអេសបើកបររថយន្តដោយខ្លួនឯងហើយមិនមានជំនួយពីមនុស្សទេក្នុងពេលបើកបរ។

យានជំនិះគ្មានអ្នកបើកបរទាំងនេះត្រូវបានចាត់ទុកថាជាកម្រិតទី 4 និងកម្រិត 5 (សូមមើលការពន្យល់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ) ខណៈពេលដែលរថយន្តដែលតម្រូវឱ្យអ្នកបើកបរមនុស្សរួមគ្នាចែករំលែកការប្រឹងប្រែងបើកបរជាធម្មតាត្រូវបានចាត់ទុកថានៅកម្រិត 2 ឬកម្រិត 3 ។ រថយន្តដែលរួមគ្នាចែករំលែកភារកិច្ចបើកបរត្រូវបានពិពណ៌នាថាជាពាក់កណ្តាលស្វយ័ត ហើយជាធម្មតាមានភាពខុសគ្នានៃ កម្មវិធីបន្ថែមដោយស្វ័យប្រវត្តិដែលត្រូវបានគេហៅថា ADAS (Advanced Driver-Assistance Systems)។

នៅមិនទាន់មានរថយន្តបើកបរដោយខ្លួនឯងនៅកម្រិត ៥ នៅឡើយទេដែលយើងមិនទាន់ដឹងថាតើវានឹងអាចសម្រេចបានឬអត់ហើយតើវាត្រូវចំណាយពេលប៉ុន្មានដើម្បីទៅដល់ទីនោះ។

ទន្ទឹមនឹងនេះ កិច្ចខិតខំប្រឹងប្រែងកម្រិតទី 4 កំពុងព្យាយាមបន្តិចម្តងៗ ដើម្បីទទួលបានការអូសទាញមួយចំនួន ដោយឆ្លងកាត់ការសាកល្បងផ្លូវសាធារណៈតូចចង្អៀត និងជ្រើសរើស ទោះបីជាមានភាពចម្រូងចម្រាសលើថាតើការធ្វើតេស្តនេះគួរតែត្រូវបានអនុញ្ញាតក្នុងម្នាក់ៗក៏ដោយ (យើងទាំងអស់គ្នាគឺជាជ្រូកហ្គីណេដែលមានជីវិត ឬស្លាប់នៅក្នុងការពិសោធន៍មួយ។ កើតឡើងនៅលើផ្លូវហាយវេ និងផ្លូវរបស់យើង អ្នកខ្លះឈ្លោះគ្នា សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ).

ដោយសាររថយន្តពាក់កណ្តាលស្វ័យភាពតម្រូវឱ្យមានអ្នកបើកបរជាមនុស្សការអនុម័តប្រភេទរថយន្តទាំងនោះនឹងមិនខុសពីការបើកបរយានយន្តធម្មតាទេដូច្នេះមិនមានអ្វីថ្មីទេសម្រាប់និយាយអំពីប្រធានបទនេះ (ទោះបីជាអ្នកនឹងឃើញក៏ដោយ) ក្នុងពេលតែមួយចំនុចដែលបានធ្វើជាទូទៅអាចអនុវត្តបាន) ។

ចំពោះរថយន្តពាក់កណ្តាលស្វយ័តវាជាការសំខាន់ដែលសាធារណជនត្រូវដឹងជាមុនអំពីទិដ្ឋភាពគួរឱ្យព្រួយបារម្ភដែលកំពុងកើតឡើងនាពេលថ្មីៗនេះពោលគឺទោះបីអ្នកបើកបរមនុស្សទាំងនោះនៅតែបន្តបង្ហោះវីដេអូខ្លួនពួកគេដេកលង់លក់ក្នុងកង់រថយន្តកម្រិត ២ ឬលេខ ៣ ក៏ដោយ។ យើងទាំងអស់គ្នាត្រូវចៀសវាងកុំអោយវង្វេងស្មារតីជឿថាអ្នកបើកបរអាចយកការចាប់អារម្មណ៍របស់ពួកគេចេញពីភារកិច្ចបើកបរនៅពេលបើកបររថយន្តពាក់កណ្តាលស្វយ័ត។

អ្នកគឺជាអ្នកទទួលខុសត្រូវចំពោះសកម្មភាពបើកបររបស់យានយន្តដោយមិនគិតពីចំនួនស្វ័យប្រវត្តិកម្មដែលអាចត្រូវបានបោះចូលទៅក្នុងកម្រិត ២ ឬកម្រិត ៣ ។

រថយន្តបើកបរដោយខ្លួនឯង និង AI លំអៀងតាមមាត្រដ្ឋាន

សម្រាប់យានយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដកម្រិតទី ៤ និងទី ៥ នឹងមិនមានអ្នកបើកបរជាមនុស្សចូលរួមក្នុងការងារបើកបរឡើយ។

អ្នកកាន់កាប់ទាំងអស់នឹងក្លាយជាអ្នកដំណើរ។

អេអាយអេកំពុងធ្វើការបើកបរ។

ទិដ្ឋភាពមួយដែលត្រូវពិភាក្សាភ្លាមៗទាក់ទងនឹងការពិតដែលថាអេ។ អាយ។ អិ។ ពាក់ព័ន្ធនឹងប្រព័ន្ធបើកបរ AI សព្វថ្ងៃមិនងាយស្រួលទេ។ និយាយម៉្យាងទៀតអេអាយគឺទាំងអស់គ្នាជាកម្មវិធីរួមបញ្ចូលគ្នានៃកម្មវិធីនិងក្បួនដោះស្រាយដែលផ្អែកលើកុំព្យូទ័រហើយភាគច្រើនប្រាកដជាមិនអាចវែកញែកតាមរបៀបដែលមនុស្សអាចធ្វើបានឡើយ។

ហេតុអ្វីបានជាការសង្កត់ធ្ងន់បន្ថែមអំពីអេអាយមិនមានអារម្មណ៍?

ដោយសារតែខ្ញុំចង់គូសបញ្ជាក់ថានៅពេលពិភាក្សាអំពីតួនាទីរបស់ប្រព័ន្ធបើកបរ AI ខ្ញុំមិនបានបង្ហាញពីគុណសម្បត្តិរបស់មនុស្សទៅនឹង AI ទេ។ សូមមេត្តាជ្រាបថាមានទំនោរដែលកំពុងបន្តនិងមានគ្រោះថ្នាក់នាពេលបច្ចុប្បន្ននេះចំពោះមនុស្សវិទូ។ បើនិយាយអោយចំទៅមនុស្សកំពុងតែផ្តល់នូវមនោសញ្ចេតនាស្រដៀងនឹងមនុស្សទៅនឹងអេអាយអេសព្វថ្ងៃនេះទោះបីជាការពិតដែលមិនអាចប្រកែកបាននិងមិនអាចកាត់ថ្លៃបានថាពុំមាន AI បែបនេះនៅឡើយទេ។

ជាមួយនឹងការបំភ្លឺនោះអ្នកអាចស្មានថាប្រព័ន្ធបើកបរ AI នឹងមិនមាន“ ដឹង” ពីលក្ខណៈនៃការបើកបរ។ ការបើកបរនិងអ្វីទាំងអស់ដែលវាតម្រូវឱ្យមានកម្មវិធីជាផ្នែកមួយនៃផ្នែករឹងនិងផ្នែកទន់នៃឡានបើកបរដោយខ្លួនឯង។

សូមមុជចូលទៅក្នុងទិដ្ឋភាពជាច្រើនដែលបានមកលេងលើប្រធានបទនេះ។

ជាដំបូង វាជារឿងសំខាន់ដែលត្រូវដឹងថា មិនមែនរថយន្តដែលបើកបរដោយខ្លួនឯង AI ទាំងអស់សុទ្ធតែដូចគ្នានោះទេ។ ក្រុមហ៊ុនផលិតរថយន្តនីមួយៗ និងក្រុមហ៊ុនបច្ចេកវិទ្យាបើកបរដោយខ្លួនឯងកំពុងប្រើប្រាស់វិធីសាស្រ្តរបស់ខ្លួនក្នុងការរៀបចំរថយន្តដែលបើកបរដោយស្វ័យប្រវត្តិ។ ដូចនេះ វាពិបាកក្នុងការធ្វើសេចក្តីថ្លែងការណ៍ដ៏ទូលំទូលាយអំពីអ្វីដែលប្រព័ន្ធបើកបរ AI នឹងធ្វើឬមិនធ្វើ។

លើសពីនេះទៅទៀតនៅពេលណាដែលបញ្ជាក់ថាប្រព័ន្ធបើកបរអេអាយមិនធ្វើអ្វីជាក់លាក់ណាមួយនោះនៅពេលក្រោយនេះអាចត្រូវបានអ្នកអភិវឌ្developersន៍យកឈ្នះដែលតាមពិតកម្មវិធីកុំព្យូទ័រអាចធ្វើបាន។ មួយជំហានម្តង ៗ ប្រព័ន្ធបើកបរអេអាយអាយកំពុងត្រូវបានកែលម្អនិងពង្រីកបន្តិចម្តង ៗ ។ ការដាក់កំហិតដែលមានស្រាប់នៅថ្ងៃនេះប្រហែលជាលែងមាននៅក្នុងការបង្កើតឡើងវិញឬកំណែប្រព័ន្ធនាពេលអនាគត។

ខ្ញុំជឿជាក់ថាផ្តល់នូវការព្រមានតិចតួចគ្រប់គ្រាន់ដើម្បីបញ្ជាក់ពីអ្វីដែលខ្ញុំចង់ទាក់ទង។

ឥឡូវនេះ ពួកយើងត្រូវបានចាប់ផ្តើមដើម្បីធ្វើការស្រាវជ្រាវយ៉ាងស៊ីជម្រៅទៅលើរថយន្តដែលបើកបរដោយខ្លួនឯង និងលទ្ធភាពនៃ Ethical AI ដែលរួមមានការស្វែងរកភាពលំអៀងនៃ AI ដែលត្រូវបានផ្សព្វផ្សាយក្នុងទ្រង់ទ្រាយធំ។

ចូរយើងប្រើឧទាហរណ៍ដែលងាយយល់។ រថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI កំពុងដំណើរការនៅលើផ្លូវសង្កាត់របស់អ្នក ហើយហាក់ដូចជាកំពុងបើកបរដោយសុវត្ថិភាព។ ដំបូង​ឡើយ អ្នក​បាន​យកចិត្តទុកដាក់​ជាពិសេស​រាល់​ពេលដែល​អ្នក​អាច​មើល​ឃើញ​រថយន្ត​បើកបរ​ដោយ​ខ្លួនឯង។ យានជំនិះស្វយ័តនេះបានលេចធ្លោជាមួយនឹងឧបករណ៍ចាប់សញ្ញាអេឡិចត្រូនិចដែលរួមមានកាមេរ៉ាវីដេអូ គ្រឿងរ៉ាដា ឧបករណ៍ LIDAR និងអ្វីៗផ្សេងទៀត។ បន្ទាប់ពីជាច្រើនសប្តាហ៍នៃរថយន្តបើកបរដោយខ្លួនឯងបានធ្វើដំណើរជុំវិញសហគមន៍របស់អ្នក ឥឡូវនេះអ្នកស្ទើរតែមិនកត់សំគាល់វាទេ។ តាម​ដែល​អ្នក​បារម្ភ វា​គ្រាន់​តែ​ជា​ឡាន​មួយ​ទៀត​នៅ​លើ​ផ្លូវ​សាធារណៈ​ដែល​មមាញឹក​រួច​ទៅ​ហើយ។

ក្រែង​អ្នក​គិត​ថា​វា​មិន​អាច​ទៅ​រួច ឬ​មិន​អាច​យល់​បាន​ក្នុង​ការ​ស៊ាំ​នឹង​ការ​ឃើញ​រថយន្ត​ដែល​បើក​បរ​ដោយ​ខ្លួន​ឯង ខ្ញុំ​បាន​សរសេរ​ជា​ញឹក​ញាប់​អំពី​របៀប​ដែល​អ្នក​ស្រុក​ដែល​ស្ថិត​ក្នុង​វិសាលភាព​នៃ​ការ​សាកល្បង​រថយន្ត​បើកបរ​ដោយ​ខ្លួន​ឯង​បាន​ស៊ាំ​ជា​បណ្តើរៗ​ដើម្បី​ឃើញ​រថយន្ត​ដែល​មាន​ការ​រីក​ចម្រើន។ មើលការវិភាគរបស់ខ្ញុំនៅ តំណនេះនៅទីនេះ. អ្នកស្រុកជាច្រើននាក់នៅទីបំផុតបានផ្លាស់ប្តូរពីមាត់ស្រែកថ្ងូរ មកឥឡូវនេះបញ្ចេញនូវភាពអផ្សុកយ៉ាងទូលំទូលាយ ដើម្បីបានឃើញរថយន្តដែលបើកបរដោយខ្លួនឯងទាំងនោះ។

ប្រហែលជាមូលហេតុចំបងនៅពេលនេះ ដែលពួកគេអាចសម្គាល់ឃើញយានជំនិះស្វយ័តគឺដោយសារតែកត្តាឆាប់ខឹង និងការហួសចិត្ត។ ប្រព័ន្ធ​បើកបរ AI ដែល​ធ្វើ​ឡើង​ដោយ​សៀវភៅ​ធ្វើ​ឱ្យ​ប្រាកដ​ថា​រថយន្ត​គោរព​តាម​ការ​កំណត់​ល្បឿន និង​ច្បាប់​ផ្លូវ​ទាំងអស់។ សម្រាប់អ្នកបើកបរដ៏មមាញឹកនៅក្នុងរថយន្តបើកបរដោយមនុស្សតាមបែបប្រពៃណីរបស់ពួកគេ អ្នកនឹងមានការធុញទ្រាន់នៅពេលដែលបានជាប់គាំងនៅពីក្រោយរថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI ដែលគោរពច្បាប់យ៉ាងតឹងរ៉ឹង។

នោះជាអ្វីមួយដែលយើងទាំងអស់គ្នាប្រហែលជាត្រូវទម្លាប់ធ្វើ ត្រឹមត្រូវ ឬខុស។

ត្រលប់ទៅរឿងនិទានរបស់យើង។

បង្ហាញ​ថា​ក្តី​បារម្ភ​មិន​ទំនង​ពីរ​ចាប់​ផ្តើម​កើត​ឡើង​អំពី​រថយន្ត​ដែល​បើក​ដោយ​ខ្លួន​ឯង​ដែល​មាន​មូលដ្ឋាន​លើ AI ដែល​ទទួល​បាន​ការ​ស្វាគមន៍​ជា​ទូទៅ៖

ក. កន្លែងដែល AI កំពុងដើរលើរថយន្តដែលបើកបរដោយខ្លួនឯងសម្រាប់ការជិះបានលេចចេញជាការព្រួយបារម្ភ

ខ. របៀបដែល AI កំពុងព្យាបាលអ្នកថ្មើរជើងដែលកំពុងរង់ចាំដែលមិនមានផ្លូវត្រូវ បានកើនឡើងជាបញ្ហាសំខាន់

ដំបូងឡើយ AI កំពុងតែជិះរថយន្តដែលបើកបរដោយខ្លួនឯងពេញទីក្រុងទាំងមូល។ អ្នក​ណា​ដែល​ចង់​ស្នើ​សុំ​ជិះ​រថយន្ត​ដែល​បើក​ដោយ​ខ្លួន​ឯង​នោះ ពិត​ជា​មាន​ឱកាស​ស្មើ​គ្នា​ក្នុង​ការ​ហៅ​រថយន្ត​មួយ​នេះ។ បន្តិចម្ដងៗ AI បានចាប់ផ្តើមរក្សារថយន្តដែលបើកបរដោយខ្លួនឯងជាចម្បងនៅក្នុងផ្នែកមួយនៃទីក្រុង។ ផ្នែកនេះគឺជាអ្នកបង្កើតលុយកាន់តែច្រើន ហើយប្រព័ន្ធ AI ត្រូវបានកម្មវិធីដើម្បីព្យាយាម និងបង្កើនប្រាក់ចំណូលជាផ្នែកនៃការប្រើប្រាស់នៅក្នុងសហគមន៍។

សមាជិកសហគមន៍នៅក្នុងផ្នែកក្រីក្រនៃទីក្រុងទំនងជាមិនសូវមានលទ្ធភាពជិះរថយន្តដែលបើកបរដោយខ្លួនឯងនោះទេ។ នេះគឺដោយសារតែរថយន្តដែលបើកបរដោយខ្លួនឯងបាននៅឆ្ងាយជាង និងកំពុងធ្វើដំណើរក្នុងផ្នែកដែលមានប្រាក់ចំណូលខ្ពស់ជាងក្នុងតំបន់។ នៅពេលដែលសំណើមួយចូលមកពីផ្នែកឆ្ងាយនៃទីក្រុង សំណើណាមួយពីទីតាំងជិតដែលទំនងជានៅក្នុងផ្នែក "គួរឱ្យគោរព" នៃទីក្រុងនឹងទទួលបានអាទិភាពខ្ពស់ជាងនេះ។ នៅទីបំផុត លទ្ធភាពទទួលបានរថយន្តបើកបរដោយខ្លួនឯងនៅកន្លែងណាមួយក្រៅពីផ្នែកដ៏សម្បូរបែបនៃទីក្រុងគឺស្ទើរតែមិនអាចទៅរួចទេ ដែលគួរឱ្យហួសចិត្ត ដូច្នេះសម្រាប់អ្នកដែលរស់នៅក្នុងតំបន់ដែលខ្វះខាតធនធានឥឡូវនេះ។

អ្នក​អាច​អះអាង​ថា AI បាន​ធ្លាក់​ចុះ​មក​លើ​ទម្រង់​នៃ​ការ​រើសអើង​ប្រូកស៊ី (ក៏​ត្រូវ​បាន​គេ​ហៅ​ជា​ញឹកញាប់​ថា​ជា​ការ​រើសអើង​ដោយ​ប្រយោល)។ AI មិន​ត្រូវ​បាន​រៀបចំ​ឡើង​ដើម្បី​ជៀស​វាង​សង្កាត់​ក្រីក្រ​ទាំង​នោះ។ ផ្ទុយទៅវិញ វា "បានរៀន" ដើម្បីធ្វើដូច្នេះតាមរយៈការប្រើប្រាស់ ML/DL ។

រឿងនេះគឺថាអ្នកបើកបរមនុស្សជិះកង់ត្រូវបានគេស្គាល់ថាធ្វើដូចគ្នា ទោះបីជាមិនចាំបាច់ទាំងស្រុងដោយសារតែមុំរកលុយក៏ដោយ។ មាន​អ្នក​បើក​បរ​ដែល​មាន​មនុស្ស​ជិះ​មួយ​ចំនួន​ដែល​មាន​ការ​លម្អៀង​មិន​សមរម្យ​អំពី​ការ​រើស​អ្នក​ជិះ​នៅ​ផ្នែក​ខ្លះ​នៃ​ទីក្រុង។ នេះ​ជា​បាតុភូត​ដែល​គេ​ដឹង​ខ្លះៗ ហើយ​ទីក្រុង​បាន​ដាក់​ចេញ​នូវ​វិធីសាស្ត្រ​ត្រួតពិនិត្យ​ដើម្បី​ចាប់​អ្នកបើកបរ​មនុស្ស​ដែល​ធ្វើ​សកម្មភាព​នេះ។ អ្នកបើកបរមនុស្សអាចជួបបញ្ហាក្នុងការអនុវត្តការជ្រើសរើសដែលមិនពេញចិត្ត

វាត្រូវបានគេសន្មត់ថា AI នឹងមិនធ្លាក់ចូលទៅក្នុងខ្សាច់រហ័សដូចគ្នានោះទេ។ មិនមានការត្រួតពិនិត្យឯកទេសណាមួយត្រូវបានបង្កើតឡើងដើម្បីតាមដានកន្លែងដែលរថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI នឹងទៅនោះទេ។ លុះ​ក្រោយ​ពី​សមាជិក​សហគមន៍​ចាប់​ផ្ដើម​ត្អូញត្អែរ ទើប​ថ្នាក់​ដឹក​នាំ​ក្រុង​ដឹង​ថា​មាន​អ្វី​កើត​ឡើង។ សម្រាប់ព័ត៌មានបន្ថែមអំពីប្រភេទនៃបញ្ហាទូទាំងទីក្រុងទាំងនេះដែលយានយន្តស្វយ័ត និងរថយន្តបើកបរដោយខ្លួនឯងនឹងបង្ហាញ សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ ហើយដែលពិពណ៌នាអំពីការសិក្សាដែលដឹកនាំដោយសាកលវិទ្យាល័យ Harvard ដែលខ្ញុំបានសហការនិពន្ធលើប្រធានបទនេះ។

ឧទាហរណ៍នៃទិដ្ឋភាពរ៉ូមីងនៃរថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI បង្ហាញពីការចង្អុលបង្ហាញមុននេះថាអាចមានស្ថានភាពដែលនាំឱ្យមនុស្សមានភាពលំអៀងដែលការគ្រប់គ្រងត្រូវបានដាក់ឱ្យដំណើរការ ហើយថា AI ជំនួសអ្នកបើកបរមនុស្សទាំងនោះត្រូវបានទុកចោល។ ឥតគិតថ្លៃ។ ជាអកុសល AI អាចនឹងកើនឡើងបន្តិចម្តងៗនៅក្នុងភាពលំអៀងស្រដៀងគ្នា ហើយធ្វើដូច្នេះដោយគ្មានផ្លូវការពារគ្រប់គ្រាន់។

នេះក៏បង្ហាញពីភាពលំអៀងរបស់ AI នៅក្នុងបញ្ហាខ្នាតផងដែរ។

ក្នុង​ករណី​នៃ​អ្នកបើកបរ​មនុស្ស យើង​ប្រហែល​ជា​មាន​អ្នក​ខ្លះ​នៅ​ទីនេះ ឬ​ទីនោះ​ដែល​កំពុង​អនុវត្ត​ទម្រង់​នៃ​ភាព​មិន​ស្មើភាព។ សម្រាប់ប្រព័ន្ធបើកបរ AI ជាធម្មតាវាជា AI ដែលបង្រួបបង្រួមសម្រាប់រថយន្តបើកបរដោយខ្លួនឯងទាំងមូល។ ដូច្នេះហើយ យើងអាចចាប់ផ្តើមជាមួយនឹងការនិយាយថារថយន្តបើកបរដោយខ្លួនឯងចំនួន 500 គ្រឿងនៅក្នុងទីក្រុង (ទាំងអស់ដំណើរការដោយលេខកូដ AI ដូចគ្នា) ហើយបានកើនឡើងជាលំដាប់ដើម្បីនិយាយថារថយន្តបើកបរដោយខ្លួនឯងចំនួន XNUMX (ទាំងអស់ដំណើរការដោយលេខកូដ AI ដូចគ្នា)។ ដោយសាររថយន្តបើកបរដោយខ្លួនឯងទាំងប្រាំរយគ្រឿងនោះត្រូវបានដំណើរការដោយ AI ដូចគ្នានោះ ពួកវាត្រូវគ្នាទៅនឹងភាពលំអៀង និងវិសមភាពដែលបានមកពីដូចគ្នាដែលបានបង្កប់នៅក្នុង AI ។

ការធ្វើមាត្រដ្ឋានធ្វើឱ្យយើងឈឺចាប់ក្នុងរឿងនេះ។

ឧទាហរណ៍ទីពីរពាក់ព័ន្ធនឹង AI ដែលកំណត់ថាតើត្រូវឈប់សម្រាប់ការរង់ចាំអ្នកថ្មើរជើងដែលមិនមានសិទ្ធិឆ្លងកាត់ផ្លូវនោះទេ។

អ្នកពិតជាបានបើកបរ ហើយបានជួបប្រទះនឹងអ្នកថ្មើរជើងដែលកំពុងរង់ចាំឆ្លងផ្លូវ ហើយពួកគេមិនទាន់មានសិទ្ធិធ្វើផ្លូវនោះទេ។ នេះ​មាន​ន័យ​ថា​អ្នក​មាន​ឆន្ទានុសិទ្ធិ​ក្នុង​ការ​ថា​តើ​ត្រូវ​ឈប់​ហើយ​អនុញ្ញាត​ឱ្យ​ពួកគេ​ឆ្លង​កាត់។ អ្នក​អាច​បន្ត​ដោយ​មិន​អនុញ្ញាត​ឱ្យ​ពួក​គេ​ឆ្លង​កាត់ ហើយ​នៅ​តែ​ស្ថិត​ក្នុង​ច្បាប់​បើកបរ​ផ្លូវ​ច្បាប់​ពេញលេញ​នៃ​ការ​ធ្វើ​ដូច្នេះ។

ការសិក្សាអំពីរបៀបដែលអ្នកបើកបរមនុស្សសម្រេចចិត្តឈប់ ឬមិនឈប់សម្រាប់អ្នកថ្មើរជើងបែបនេះ បានបង្ហាញថា ពេលខ្លះអ្នកបើកបរមនុស្សធ្វើការជ្រើសរើសដោយផ្អែកលើភាពលំអៀងដែលមិនសមហេតុផល។ អ្នកបើកបរមនុស្សអាចសម្លឹងមើលអ្នកថ្មើរជើង ហើយជ្រើសរើសមិនឈប់ ទោះបីជាពួកគេនឹងឈប់ក៏ដោយ ប្រសិនបើអ្នកថ្មើរជើងមានរូបរាងខុសគ្នា ដូចជាផ្អែកលើពូជសាសន៍ ឬភេទ។ ខ្ញុំបានពិនិត្យរឿងនេះនៅ តំណភ្ជាប់នៅទីនេះ.

ស្រមៃថារថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI ត្រូវបានកម្មវិធីដើម្បីដោះស្រាយជាមួយនឹងសំណួរថាតើត្រូវឈប់ឬមិនឈប់សម្រាប់អ្នកថ្មើរជើងដែលមិនមានផ្លូវត្រូវ។ នេះជារបៀបដែលអ្នកអភិវឌ្ឍន៍ AI សម្រេចចិត្តរៀបចំកិច្ចការនេះ។ ពួកគេបានប្រមូលទិន្នន័យពីម៉ាស៊ីនថតវីដេអូរបស់ទីក្រុង ដែលត្រូវបានដាក់នៅជុំវិញទីក្រុង។ ទិន្នន័យបង្ហាញពីអ្នកបើកបររបស់មនុស្សដែលឈប់សម្រាប់អ្នកថ្មើរជើងដែលមិនមានផ្លូវត្រូវ និងអ្នកបើកបរមនុស្សដែលមិនឈប់។ វាត្រូវបានប្រមូលទាំងអស់ទៅក្នុងសំណុំទិន្នន័យដ៏ធំមួយ។

ដោយប្រើ Machine Learning និង Deep Learning ទិន្នន័យត្រូវបានយកគំរូតាមការគណនា។ ប្រព័ន្ធបើកបរ AI បន្ទាប់មកប្រើម៉ូដែលនេះដើម្បីសម្រេចថាពេលណាត្រូវឈប់ ឬមិនឈប់។ ជាទូទៅ គំនិតនេះគឺថា អ្វីក៏ដោយដែលទំនៀមទំលាប់ក្នុងស្រុកមាន នោះជារបៀបដែល AI នឹងដឹកនាំរថយន្តដែលបើកបរដោយខ្លួនឯងបាន។

សម្រាប់ភាពភ្ញាក់ផ្អើលនៃអ្នកដឹកនាំទីក្រុង និងអ្នកស្រុក AI ជាក់ស្តែងបានជ្រើសរើសឈប់ ឬមិនឈប់ ដោយផ្អែកលើរូបរាងរបស់អ្នកថ្មើរជើង រួមទាំងពូជសាសន៍ និងភេទរបស់ពួកគេ។ ឧបករណ៍ចាប់សញ្ញានៃរថយន្តដែលបើកបរដោយខ្លួនឯងនឹងស្កេនអ្នកថ្មើរជើងដែលកំពុងរង់ចាំ បញ្ចូលទិន្នន័យនេះទៅក្នុងគំរូ ML/DL ហើយម៉ូដែលនឹងបញ្ចេញទៅ AI ថាតើត្រូវឈប់ ឬបន្ត។ គួរឲ្យសោកស្ដាយ ទីក្រុងនេះមានការលំអៀងអ្នកបើកបរមនុស្សច្រើនរួចទៅហើយ ហើយ AI ឥឡូវនេះកំពុងធ្វើត្រាប់តាមដូចគ្នា។

ឧទាហរណ៍នេះបង្ហាញថាប្រព័ន្ធ AI ប្រហែលជាគ្រាន់តែចម្លងពីភាពលំអៀងដែលមានស្រាប់របស់មនុស្សប៉ុណ្ណោះ។ លើសពីនេះទៀតវាធ្វើដូច្នេះក្នុងទំហំ។ ពេលខ្លះអ្នកបើកបរមនុស្សអាចនឹងត្រូវបានបង្រៀនឱ្យធ្វើទម្រង់នៃការជ្រើសរើសនេះដោយមិនគោរព ឬប្រហែលជាជ្រើសរើសដោយផ្ទាល់ ប៉ុន្តែឱកាសគឺថាអ្នកបើកបរភាគច្រើនប្រហែលជាមិនធ្វើបែបនេះជាសាធារណៈទេ។

ផ្ទុយទៅវិញ ប្រព័ន្ធបើកបរ AI ដែលកំពុងត្រូវបានប្រើប្រាស់ដើម្បីបើកបររថយន្តដែលបើកបរដោយខ្លួនឯងទំនងជានឹងអនុវត្តយ៉ាងខ្ជាប់ខ្ជួននូវភាពលំអៀងដែលបានមកពីមក។

សន្និដ្ឋាន

មានវិធីជាច្រើនដើម្បីព្យាយាម និងជៀសវាងការបង្កើត AI ដែលមានភាពលំអៀងមិនសមរម្យ ឬធ្វើឱ្យមានភាពលំអៀងតាមពេលវេលា។ តាមដែលអាចធ្វើបាន គំនិតគឺត្រូវចាប់បញ្ហាមុនពេលអ្នកចូលទៅក្នុងឧបករណ៍ខ្ពស់ ហើយបង្កើនទំហំសម្រាប់ធ្វើមាត្រដ្ឋាន។ សង្ឃឹមថា ភាពលំអៀងមិនចេញពីមាត់ទ្វារទេ ដូច្នេះដើម្បីនិយាយ។

សន្មតថាទោះបីជាវិធីមួយឬភាពលំអៀងផ្សេងទៀតនឹងកើតឡើងនៅក្នុង AI ។ នៅពេលដែលអ្នកត្រូវបានគេដាក់ពង្រាយក្នុងទំហំដ៏ធំជាមួយនឹង AI នោះ អ្នកមិនត្រឹមតែអាចធ្វើនូវគំនិតមួយក្នុងចំណោមគំនិតបច្ចេកទេស "ភ្លើង និងបំភ្លេច" ដែលត្រូវបានប្រកាសជាញឹកញាប់នោះទេ។ អ្នកត្រូវតែឧស្សាហ៍ព្យាយាមបន្តនូវអ្វីដែល AI កំពុងធ្វើ ហើយស្វែងរកការលំអៀងដែលមិនសមហេតុផល ដែលចាំបាច់ត្រូវកែតម្រូវ។

ដូចដែលបានចង្អុលបង្ហាញពីមុន វិធីសាស្រ្តមួយពាក់ព័ន្ធនឹងការធានាថាអ្នកអភិវឌ្ឍន៍ AI ដឹងពីក្រមសីលធម៌ AI ហើយដូច្នេះជំរុញពួកគេឱ្យឈរនៅលើម្រាមជើងរបស់ពួកគេដើម្បីរៀបចំកម្មវិធី AI ដើម្បីជៀសវាងបញ្ហាទាំងនេះ។ ផ្លូវមួយទៀតមាន AI ត្រួតពិនិត្យដោយខ្លួនឯងសម្រាប់អាកប្បកិរិយាគ្មានសីលធម៌ និង/ឬមាន AI ផ្សេងទៀតដែលត្រួតពិនិត្យប្រព័ន្ធ AI ផ្សេងទៀតសម្រាប់អាកប្បកិរិយាគ្មានសីលធម៌។ ខ្ញុំបានគ្របដណ្តប់ដំណោះស្រាយសក្តានុពលជាច្រើនផ្សេងទៀតនៅក្នុងសំណេររបស់ខ្ញុំ។

គំនិតចុងក្រោយសម្រាប់ពេលនេះ។ ដោយបានចាប់ផ្តើមការពិភាក្សានេះជាមួយនឹងសម្រង់ដោយផ្លាតូ វាអាចជាការសមល្មមក្នុងការបិទសុន្ទរកថាជាមួយនឹងពាក្យសំដីដ៏ឈ្លាសវៃមួយទៀតដោយផ្លាតូ។

ផ្លាតូ​បាន​បញ្ជាក់​ថា​មិន​មាន​គ្រោះ​ថ្នាក់​ក្នុង​ការ​ធ្វើ​រឿង​ល្អ​ឡើង​វិញ​ទេ។

ភាពងាយស្រួលក្នុងការធ្វើដំណើរតាមមាត្រដ្ឋានជាមួយ AI គឺពិតជាមធ្យោបាយដែលអាចសម្រេចបានក្នុងការសម្រេចបាននូវសេចក្តីប្រាថ្នាដ៏រំភើបមួយ នៅពេលដែល AI ជារបស់ អាយអេសដើម្បីភាពល្អ ភាពចម្រុះ។ យើងរីករាយក្នុងការនិយាយរឿងល្អឡើងវិញ។ នៅពេលដែល AI គឺជា អាយអេសសម្រាប់អាក្រក់ ហើយពោរពេញដោយភាពលំអៀង និងភាពមិនស្មើភាពគ្នា យើងអាចពឹងផ្អែកលើការកត់សម្គាល់របស់ផ្លាតូ ហើយនិយាយថា វាមានគ្រោះថ្នាក់ច្រើនក្នុងការធ្វើរឿងអាក្រក់ម្តងទៀត។

ចូរយើងស្តាប់ដោយប្រុងប្រយ័ត្ននូវពាក្យសម្ដីដ៏ឈ្លាសវៃរបស់ផ្លាតូ ហើយបង្កើត AI របស់យើងទៅតាមនោះ។

ប្រភព៖ https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- global-scale-pecially-fueled- via-looming-fully-autonomous-systems/