ផ្លាតូបាននិយាយយ៉ាងល្បីថា ការសម្រេចចិត្តល្អគឺផ្អែកលើចំណេះដឹង និងមិនមែនលើលេខទេ។
ការយល់ដឹងដ៏ប៉ិនប្រសប់នេះ ហាក់បីដូចជាមានភាពអស្ចារ្យអំពីបញ្ញាសិប្បនិម្មិត (AI) នាពេលបច្ចុប្បន្ននេះ។
អ្នកឃើញហើយ ទោះបីជាមានចំណងជើងដ៏គួរឱ្យភ្ញាក់ផ្អើលដែលប្រកាសថា AI បានឈានដល់ការយល់ឃើញដូចម្ដេច ហើយបង្កប់នូវចំណេះដឹង និងការវែកញែករបស់មនុស្សក៏ដោយ សូមដឹងថា អាយភីអាយ អាយ អាយ ដែលហួសកម្រិតនេះគឺជាការបំផ្លើសបំផ្លិចបំផ្លាញ ព្រោះយើងនៅតែពឹងផ្អែកលើការបំផ្លិចបំផ្លាញនៃចំនួនក្នុងការសម្រេចចិត្តលើក្បួនដោះស្រាយនាពេលបច្ចុប្បន្ននេះ (ADM ) ដូចដែលបានអនុវត្តដោយប្រព័ន្ធ AI ។ សូម្បីតែ Machine Learning (ML) និង Deep Learning (DL) មានការផ្គូផ្គងគំរូគណនា ដែលមានន័យថាលេខនៅតែជាស្នូលនៃការប្រើប្រាស់ ML/DL ដ៏ខ្ពង់ខ្ពស់។
យើងមិនដឹងថាតើ AI ឈានដល់អារម្មណ៍អាចធ្វើទៅបានឬអត់។ អាចជា ប្រហែលជាមិនមែនទេ។ គ្មាននរណាអាចនិយាយបានច្បាស់ថាតើរឿងនេះអាចកើតឡើងដោយរបៀបណា។ អ្នកខ្លះជឿថា យើងនឹងកែលម្អកិច្ចខិតខំប្រឹងប្រែង AI គណនារបស់យើងជាលំដាប់ ដែលទម្រង់នៃអារម្មណ៍នឹងកើតឡើងដោយឯកឯង។ អ្នកផ្សេងទៀតគិតថា AI អាចនឹងចូលទៅក្នុងប្រភេទមួយនៃ supernova នៃការគណនា ហើយឈានដល់ការយល់ឃើញច្រើនតាមចិត្តរបស់វា (ជាទូទៅគេហៅថាឯកវចនៈ)។ សម្រាប់ព័ត៌មានបន្ថែមអំពីទ្រឹស្តីទាំងនេះអំពីអនាគតនៃ AI សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ.
ដូច្នេះកុំជឿខុសថា AI សម័យនេះអាចគិតដូចមនុស្ស។ ខ្ញុំគិតថាសំណួរបានឈានទៅដល់ការលើកឡើងរបស់ផ្លាតូ ថាតើយើងអាចមានការសម្រេចចិត្តល្អដោយផ្អែកលើ AI គណនាជាជាងលើ AI អារម្មណ៍។ អ្នកប្រហែលជាភ្ញាក់ផ្អើលដែលបានដឹងថា ខ្ញុំនឹងអះអាងថា យើងពិតជាអាចមានការសម្រេចចិត្តល្អដែលត្រូវបានធ្វើឡើងដោយប្រព័ន្ធ AI ប្រចាំថ្ងៃ។
ផ្នែកម្ខាងទៀតនៃកាក់នោះគឺថា យើងក៏អាចមានប្រព័ន្ធ AI ប្រចាំថ្ងៃដែលធ្វើការសម្រេចចិត្តមិនល្អផងដែរ។ ការសម្រេចចិត្តរលួយ។ ការសម្រេចចិត្តដែលសម្បូរទៅដោយភាពលំអៀង និងវិសមភាព។ អ្នកប្រហែលជាដឹងហើយថា នៅពេលដែលយុគសម័យចុងក្រោយបង្អស់របស់ AI បានចាប់ផ្តើម មានការរំភើបយ៉ាងខ្លាំងចំពោះអ្វីដែលមនុស្សមួយចំនួនហៅថា អាយអេសដើម្បីភាពល្អ. ជាអកុសល យើងចាប់ផ្តើមធ្វើសាក្សីដោយភាពរំភើបរីករាយ អាយអេសសម្រាប់អាក្រក់. ជាឧទាហរណ៍ ប្រព័ន្ធសម្គាល់មុខដែលមានមូលដ្ឋានលើ AI ជាច្រើនត្រូវបានបង្ហាញថាមានផ្ទុកនូវភាពលំអៀងជាតិសាសន៍ និងលម្អៀងយេនឌ័រ ដែលខ្ញុំបានពិភាក្សានៅ តំណភ្ជាប់នៅទីនេះ.
ខំប្រឹងទប់ទល់ អាយអេសសម្រាប់អាក្រក់ កំពុងដំណើរការយ៉ាងសកម្ម។ ក្រៅពីស្រែកថ្ងូរ ផ្នែកច្បាប់ ការខិតខំប្រឹងប្រែងក្នុងការទប់ទល់នឹងការប្រព្រឹត្តខុស វាក៏មានការជំរុញយ៉ាងសំខាន់ឆ្ពោះទៅរកការទទួលយកក្រមសីលធម៌ AI ដើម្បីកែតម្រូវភាពអាក្រក់របស់ AI ។ គំនិតនេះគឺថាយើងគួរតែទទួលយក និងគាំទ្រគោលការណ៍សីលធម៌ AI សំខាន់ៗសម្រាប់ការអភិវឌ្ឍន៍ និងការអនុវត្តរបស់ AI ដើម្បីធ្វើដូច្នេះដើម្បីកាត់បន្ថយ។ អាយអេសសម្រាប់អាក្រក់ ហើយក្នុងពេលដំណាលគ្នាផ្សព្វផ្សាយ និងផ្សព្វផ្សាយការពេញចិត្ត អាយអេសដើម្បីភាពល្អ.
ការគ្របដណ្តប់យ៉ាងទូលំទូលាយរបស់ខ្ញុំអំពី AI Ethics និង Ethical AI អាចរកបាននៅ តំណនេះនៅទីនេះ និង តំណនេះនៅទីនេះ, គ្រាន់តែឈ្មោះមួយចំនួន។
សម្រាប់ការពិភាក្សានៅទីនេះ ខ្ញុំចង់លើកយកទិដ្ឋភាពដែលគួរឱ្យព្រួយបារម្ភជាពិសេសអំពី AI ដែលអ្នកនៅក្នុងសង្វៀន AI Ethics មានការសោកស្ដាយយ៉ាងត្រឹមត្រូវ និងព្យាយាមបង្កើនការយល់ដឹងអំពីវា។ បញ្ហាដែលគួរឲ្យសង្វេគ និងមិនយល់ស្រប គឺពិតជាងាយស្រួលក្នុងការចង្អុលបង្ហាញ។
វានៅទីនេះ: AI មានសក្ដានុពលក្នុងពិភពពិតនៃការផ្សព្វផ្សាយ AI លំអៀងក្នុងកម្រិតពិភពលោកដ៏គួរឱ្យព្រួយបារម្ភ។
ហើយនៅពេលដែលខ្ញុំនិយាយថា "តាមមាត្រដ្ឋាន" នេះមានន័យថា មាត្រដ្ឋានដ៏ធំនៅទូទាំងពិភពលោក។ មាត្រដ្ឋានគួរឱ្យអស់សំណើច។ មាត្រដ្ឋានដែលចេញពីមាត្រដ្ឋាន។
មុនពេលដែលខ្ញុំស្វែងយល់ពីរបៀបដែលការធ្វើមាត្រដ្ឋាននៃភាពលំអៀង AI-steeped នេះនឹងកើតឡើង សូមប្រាកដថាយើងទាំងអស់គ្នាមានភាពស្រដៀងគ្នានៃរបៀបដែល AI អាចបញ្ចូលភាពលំអៀង និងវិសមភាពដែលមិនសមហេតុផល។ សូមរំលឹកម្តងទៀតថា នេះមិនមែនជាប្រភេទមនោសញ្ចេតនាទេ។ នេះជាសមត្ថភាពគណនាទាំងអស់។
អ្នកប្រហែលជាមានការងឿងឆ្ងល់អំពីរបៀបដែល AI អាចធ្វើឱ្យមានភាពលំអៀង និងអសមធម៌ដែលមនុស្សធ្វើបែបនេះ។ យើងមានទំនោរគិតថា AI មានភាពអព្យាក្រិត្យទាំងស្រុង មិនលំអៀង គ្រាន់តែជាម៉ាស៊ីនដែលមិនមានចលនារំជើបរំជួល និងការគិតដ៏អាក្រក់ដែលមនុស្សអាចមាន។ មធ្យោបាយមួយក្នុងចំណោមមធ្យោបាយទូទៅបំផុតនៃ AI ដែលធ្លាក់ចូលទៅក្នុងភាពលំអៀង និងភាពមិនស្មើគ្នា កើតឡើងនៅពេលប្រើ Machine Learning និង Deep Learning មួយផ្នែកដែលជាលទ្ធផលនៃការពឹងផ្អែកលើទិន្នន័យដែលប្រមូលបានអំពីរបៀបដែលមនុស្សកំពុងធ្វើការសម្រេចចិត្ត។
ទុកឱ្យខ្ញុំនិយាយមួយភ្លែត។
ML/DL គឺជាទម្រង់នៃការផ្គូផ្គងលំនាំគណនា។ វិធីសាស្រ្តធម្មតាគឺអ្នកប្រមូលផ្តុំទិន្នន័យអំពីកិច្ចការធ្វើការសម្រេចចិត្ត។ អ្នកបញ្ចូលទិន្នន័យទៅក្នុងម៉ូដែលកុំព្យូទ័រ ML/DL ។ គំរូទាំងនោះស្វែងរកលំនាំគណិតវិទ្យា។ បន្ទាប់ពីស្វែងរកគំរូបែបនេះ ប្រសិនបើរកឃើញនោះ ប្រព័ន្ធ AI នឹងប្រើលំនាំទាំងនោះនៅពេលជួបទិន្នន័យថ្មី។ នៅពេលបង្ហាញទិន្នន័យថ្មី គំរូដែលផ្អែកលើ "ទិន្នន័យចាស់" ឬទិន្នន័យប្រវត្តិសាស្រ្តត្រូវបានអនុវត្តដើម្បីបង្ហាញការសម្រេចចិត្តបច្ចុប្បន្ន។
ខ្ញុំគិតថាអ្នកអាចទាយថាតើនេះកំពុងទៅណា។ ប្រសិនបើមនុស្សដែលបានបង្កើតគំរូតាមការសម្រេចចិត្តបានរួមបញ្ចូលការលំអៀងដែលមិនលំអៀងនោះគឺថាទិន្នន័យបានឆ្លុះបញ្ចាំងពីចំណុចនេះតាមវិធីដែលមានភាពទន់ភ្លន់ ប៉ុន្តែសំខាន់។ ការផ្គូផ្គងគំរូការសិក្សាដោយម៉ាស៊ីន ឬការរៀនជ្រៅនឹងព្យាយាមធ្វើត្រាប់តាមទិន្នន័យតាមគណិតវិទ្យា។ មិនមានភាពដូចគ្នានៃសុភវិនិច្ឆ័យ ឬទិដ្ឋភាពមនោសញ្ចេតនាផ្សេងទៀតនៃការបង្កើតគំរូដែលបង្កើតដោយ AI ក្នុងមួយ។
ជាងនេះទៅទៀត អ្នកអភិវឌ្ឍន៍ AI ប្រហែលជាមិនដឹងពីអ្វីដែលកំពុងកើតឡើងនោះទេ។ គណិតវិទ្យា arcane នៅក្នុង ML/DL អាចធ្វើឱ្យវាពិបាកក្នុងការបំបាត់ភាពលំអៀងដែលលាក់នៅពេលនេះ។ អ្នកនឹងសង្ឃឹមយ៉ាងត្រឹមត្រូវ ហើយរំពឹងថាអ្នកអភិវឌ្ឍន៍ AI នឹងសាកល្បងសម្រាប់ភាពលំអៀងដែលអាចកប់បាន ទោះបីជាវាពិបាកជាងវាក៏ដោយ។ ឱកាសដ៏រឹងមាំមួយមានដែលថា ទោះបីជាមានការធ្វើតេស្តយ៉ាងទូលំទូលាយថានឹងមានភាពលំអៀងនៅតែបង្កប់នៅក្នុងគំរូដែលត្រូវគ្នានឹងគំរូនៃ ML/DL ក៏ដោយ។
អ្នកអាចប្រើសុភាសិតដ៏ល្បីឬមិនល្អខ្លះនៃការចោលសំរាមក្នុងធុងសំរាម។ រឿងនេះគឺថា នេះគឺស្រដៀងទៅនឹងភាពលំអៀងដែលបញ្ចូលទៅក្នុង insidiously ដូចជាភាពលំអៀងដែលលិចចូលទៅក្នុង AI ។ ក្បួនដោះស្រាយការសម្រេចចិត្ត ឬ ADM នៃ AI axiomatically ក្លាយជាបន្ទុកដោយភាពមិនស្មើគ្នា។
មិនល្អ។
នេះនាំយើងទៅរកបញ្ហានៃភាពលំអៀងរបស់ AI នៅពេលមានមាត្រដ្ឋាន។
ជាដំបូង សូមក្រឡេកមើលពីរបៀបដែលភាពលំអៀងរបស់មនុស្សអាចបង្កើតភាពមិនស្មើគ្នា។ ក្រុមហ៊ុនដែលផ្តល់ប្រាក់កម្ចីទិញផ្ទះសម្រេចចិត្តជួលភ្នាក់ងារប្រាក់កម្ចីទិញផ្ទះ។ ភ្នាក់ងារត្រូវបានគេសន្មត់ថាពិនិត្យមើលសំណើពីអ្នកប្រើប្រាស់ដែលចង់ទទួលបានប្រាក់កម្ចីទិញផ្ទះ។ បន្ទាប់ពីវាយតម្លៃពាក្យសុំ ភ្នាក់ងារធ្វើការសម្រេចចិត្តក្នុងការផ្តល់ប្រាក់កម្ចី ឬបដិសេធប្រាក់កម្ចី។ ងាយ - ស្រួល។
សម្រាប់ជាប្រយោជន៍នៃការពិភាក្សា សូមស្រមៃថាភ្នាក់ងារប្រាក់កម្ចីរបស់មនុស្សអាចវិភាគប្រាក់កម្ចីចំនួន 8 ក្នុងមួយថ្ងៃ ដោយចំណាយពេលប្រហែលមួយម៉ោងក្នុងមួយការត្រួតពិនិត្យ។ ក្នុងសប្តាហ៍ធ្វើការប្រាំថ្ងៃ ភ្នាក់ងារធ្វើការពិនិត្យប្រាក់កម្ចីប្រហែល 40 ដង។ នៅលើមូលដ្ឋានប្រចាំឆ្នាំ ភ្នាក់ងារជាធម្មតាធ្វើប្រហែល 2,000 ការពិនិត្យប្រាក់កម្ចី ផ្តល់ ឬទទួលយកបន្តិច។
ក្រុមហ៊ុនចង់បង្កើនបរិមាណនៃការពិនិត្យប្រាក់កម្ចីរបស់ខ្លួន ដូច្នេះហើយក្រុមហ៊ុនបានជួលភ្នាក់ងារកម្ចីបន្ថែមចំនួន 100 នាក់។ ចូរសន្មត់ថាពួកគេទាំងអស់មានផលិតភាពដូចគ្នា ហើយនេះមានន័យថាឥឡូវនេះយើងអាចដោះស្រាយប្រាក់កម្ចីប្រហែល 200,000 ក្នុងមួយឆ្នាំ (ក្នុងអត្រា 2,000 ការពិនិត្យប្រាក់កម្ចីក្នុងមួយឆ្នាំក្នុងមួយភ្នាក់ងារ)។ វាហាក់បីដូចជាយើងពិតជាបានបង្កើនល្បឿនដំណើរការកម្មវិធីប្រាក់កម្ចីរបស់យើង។
បង្ហាញថាក្រុមហ៊ុនបង្កើតប្រព័ន្ធ AI ដែលអាចធ្វើការត្រួតពិនិត្យប្រាក់កម្ចីដូចគ្នានឹងភ្នាក់ងារមនុស្សដែរ។ AI កំពុងដំណើរការលើម៉ាស៊ីនមេកុំព្យូទ័រក្នុងពពក។ តាមរយៈហេដ្ឋារចនាសម្ព័ន្ធពពក ក្រុមហ៊ុនអាចបន្ថែមថាមពលកុំព្យូទ័របានយ៉ាងងាយស្រួលដើម្បីសម្រួលដល់បរិមាណនៃការពិនិត្យប្រាក់កម្ចីដែលអាចនឹងត្រូវការ។
ជាមួយនឹងការកំណត់រចនាសម្ព័ន្ធ AI ដែលមានស្រាប់ ពួកគេអាចធ្វើការពិនិត្យប្រាក់កម្ចី 1,000 ក្នុងមួយម៉ោង។ វាក៏អាចកើតឡើង 24 × 7 ។ មិនមានពេលវិស្សមកាលដែលត្រូវការសម្រាប់ AI ទេ។ មិនមានការសម្រាកអាហារថ្ងៃត្រង់ទេ។ AI ធ្វើការជុំវិញនាឡិកាដោយមិនមានការច្របូកច្របល់អំពីការធ្វើការហួសកម្លាំង។ យើងនឹងនិយាយថា ក្នុងល្បឿនប្រហាក់ប្រហែលនោះ AI អាចដំណើរការពាក្យសុំកម្ចីជិត 9 លានក្នុងមួយឆ្នាំ។
សូមកត់សម្គាល់ថា យើងបានមកពីការមានភ្នាក់ងារមនុស្សចំនួន 100 នាក់ ដែលអាចផ្តល់ប្រាក់កម្ចីបាន 200,000 ក្នុងមួយឆ្នាំ ហើយបានលោតច្រើនដងរហូតដល់ចំនួនដែលកើនឡើងច្រើននៃ 9 លានការពិនិត្យក្នុងមួយឆ្នាំតាមរយៈប្រព័ន្ធ AI ។ យើងបានពង្រីកដំណើរការសំណើកម្ចីរបស់យើងយ៉ាងខ្លាំង។ គ្មានការសង្ស័យទេអំពីវា។
ត្រៀមខ្លួនសម្រាប់អ្នកទាត់ដែលប្រហែលជាធ្វើឱ្យអ្នកធ្លាក់ពីកៅអី។
សន្មតថាភ្នាក់ងារមនុស្សមួយចំនួនរបស់យើងកំពុងធ្វើការសម្រេចចិត្តប្រាក់កម្ចីរបស់ពួកគេដោយផ្អែកលើមូលដ្ឋាននៃភាពលំអៀង។ ប្រហែលខ្លះកំពុងផ្តល់កត្តាពូជសាសន៍ជាតួនាទីសំខាន់ក្នុងការសម្រេចចិត្តប្រាក់កម្ចី។ ប្រហែលជាអ្នកខ្លះកំពុងប្រើភេទ។ អ្នកផ្សេងទៀតកំពុងប្រើអាយុ។ លល។
ក្នុងចំណោមការពិនិត្យប្រាក់កម្ចីប្រចាំឆ្នាំចំនួន 200,000 តើមានប៉ុន្មានដែលកំពុងត្រូវបានធ្វើក្រោមការមើលខុសនៃភាពលំអៀងអវិជ្ជមាន និងវិសមភាព? ប្រហែលជា 10% ដែលប្រហែល 20,000 នៃសំណើប្រាក់កម្ចី។ អាក្រក់ជាងនេះទៅទៀត ឧបមាថាវាជា 50% នៃសំណើកម្ចី ក្នុងករណីនេះ មានការពិបាកណាស់ 100,000 ករណីប្រចាំឆ្នាំនៃការសម្រេចចិត្តប្រាក់កម្ចីដែលបានសម្រេចចិត្តខុស។
នោះអាក្រក់ណាស់។ ប៉ុន្តែយើងមិនទាន់បានពិចារណាអំពីលទ្ធភាពដ៏គួរឱ្យភ័យខ្លាចជាងនេះទេ។
ឧបមាថា AI មានភាពលំអៀងលាក់កំបាំងដែលមានកត្តាដូចជា ពូជសាសន៍ ភេទ អាយុ និងកត្តាផ្សេងៗទៀត។ ប្រសិនបើ 10% នៃការវិភាគប្រាក់កម្ចីប្រចាំឆ្នាំត្រូវទទួលរងនូវការមិនពេញចិត្តនេះ យើងមានសំណើកម្ចីចំនួន 900,000 ដែលកំពុងត្រូវបានដោះស្រាយមិនត្រឹមត្រូវ។ នោះច្រើនលើសពីអ្វីដែលភ្នាក់ងារមនុស្សអាចធ្វើបាន ជាចម្បងដោយសារតែទិដ្ឋភាពកម្រិតសំឡេង។ ភ្នាក់ងារទាំង 100 ទាំងនោះ ប្រសិនបើទាំងអស់កំពុងធ្វើការពិនិត្យដោយអសមធម៌ ភាគច្រើនអាចធ្វើបែបនេះលើការពិនិត្យប្រាក់កម្ចីប្រចាំឆ្នាំ 200,000 ។ AI អាចធ្វើដូចគ្នានេះលើទំហំធំនៃការពិនិត្យប្រចាំឆ្នាំ 9,000,000។
យាយ!
នេះគឺជាការលំអៀងយ៉ាងខ្លាំងរបស់ AI ក្នុងមាត្រដ្ឋានដ៏អស្ចារ្យ។
នៅពេលដែលភាពលំអៀងដែលមិនមានភាពលំអៀងត្រូវបានបញ្ចូលទៅក្នុងប្រព័ន្ធ AI ការធ្វើមាត្រដ្ឋានដូចគ្នាដែលហាក់ដូចជាមានអត្ថប្រយោជន៍ឥឡូវនេះត្រូវបានបើកនៅលើក្បាលរបស់វា ហើយក្លាយជាលទ្ធផលមាត្រដ្ឋានដែលគួរឱ្យក្លែងបន្លំ (និងគួរឱ្យរំខាន) ។ ម៉្យាងវិញទៀត AI អាចជួយសម្រួលដល់មនុស្សកាន់តែច្រើនដែលកំពុងស្នើសុំប្រាក់កម្ចីទិញផ្ទះ។ នៅលើផ្ទៃខាងលើ វាហាក់ដូចជាអស្ចារ្យណាស់។ អាយអេសដើម្បីភាពល្អ. យើងគួរតែងាកមករកខ្លួនយើងវិញ ដើម្បីសន្មតថាពង្រីកឱកាសរបស់មនុស្សក្នុងការទទួលបានប្រាក់កម្ចីដែលត្រូវការ។ ទន្ទឹមនឹងនេះដែរ ប្រសិនបើ AI បានបង្កប់នូវភាពលំអៀង ការធ្វើមាត្រដ្ឋាននឹងជាលទ្ធផលដែលរលួយយ៉ាងខ្លាំង ហើយយើងឃើញថាខ្លួនយើងកំពុងសោកសៅក្នុងភាពច្របូកច្របល់។ អាយអេសសម្រាប់អាក្រក់នៅមាត្រដ្ឋានដ៏ធំពិតប្រាកដ។
សុភាសិតដាវមុខពីរ។
AI អាចបង្កើនលទ្ធភាពចូលដំណើរការធ្វើការសម្រេចចិត្តសម្រាប់អ្នកដែលកំពុងស្វែងរកសេវាកម្ម និងផលិតផលដែលចង់បាន។ គ្មានការរារាំងកម្លាំងពលកម្មដែលមានកម្រិតមនុស្សទៀតទេ។ លេចធ្លោ! គែមម្ខាងទៀតនៃដាវគឺថាប្រសិនបើ AI ផ្ទុកនូវភាពអាក្រក់ដូចជាភាពមិនស្មើគ្នាដែលលាក់កំបាំងនោះ ការធ្វើមាត្រដ្ឋានដ៏ធំដូចគ្នានេះ នឹងផ្សព្វផ្សាយអាកប្បកិរិយាមិនសមរម្យនោះលើមាត្រដ្ឋានដែលមិននឹកស្មានដល់។ ហួសចិត្ត ខុសឆ្គង គួរឲ្យខ្មាស់អៀន ហើយយើងមិនអាចអនុញ្ញាតឱ្យសង្គមធ្លាក់ចូលទៅក្នុងទីជ្រៅដ៏អាក្រក់បែបនេះបានទេ។
អ្នកណាក៏ដោយដែលឆ្ងល់ថាហេតុអ្វីបានជាយើងចាំបាច់ត្រូវគិតគូរពីសារៈសំខាន់នៃក្រមសីលធម៌ AI ឥឡូវនេះគួរតែដឹងថាបាតុភូត AI ធ្វើមាត្រដ្ឋានគឺជាហេតុផលដ៏គួរឱ្យខ្លាចសម្រាប់ការស្វែងរក Ethical AI ។ សូមចំណាយពេលបន្តិចដើម្បីពិចារណាដោយសង្ខេបនូវសិក្ខាបទនៃក្រមសីលធម៌ AI សំខាន់ៗមួយចំនួន ដើម្បីបង្ហាញពីអ្វីដែលគួរតែជាការផ្តោតសំខាន់សម្រាប់នរណាម្នាក់ដែលបង្កើត បង្កើត ឬប្រើប្រាស់ AI ។
ជាឧទាហរណ៍ ដូចមានចែងដោយបុរីវ៉ាទីកង់ ទីក្រុងរ៉ូមអំពាវនាវឱ្យមានក្រមសីលធម៌ AI ហើយដូចដែលខ្ញុំបានគ្របដណ្តប់ស៊ីជម្រៅ តំណភ្ជាប់នៅទីនេះទាំងនេះគឺជាគោលការណ៍សីលធម៌ AI ចម្បងចំនួនប្រាំមួយដែលបានកំណត់របស់ពួកគេ៖
- តម្លាភាព: ជាគោលការណ៍ ប្រព័ន្ធ AI ត្រូវតែអាចពន្យល់បាន។
- បញ្ចូល៖ តម្រូវការរបស់មនុស្សគ្រប់រូបត្រូវតែយកមកពិចារណា ដើម្បីឲ្យមនុស្សគ្រប់រូបទទួលបានអត្ថប្រយោជន៍ ហើយបុគ្គលទាំងអស់អាចទទួលបានលក្ខខណ្ឌល្អបំផុតដើម្បីបង្ហាញពីខ្លួនឯង និងអភិវឌ្ឍ។
- ទំនួលខុសត្រូវ: អ្នកដែលរចនា និងដាក់ពង្រាយការប្រើប្រាស់ AI ត្រូវតែដំណើរការដោយការទទួលខុសត្រូវ និងតម្លាភាព
- មិនលំអៀង៖ កុំបង្កើត ឬធ្វើសកម្មភាពដោយលំអៀង ការពារភាពត្រឹមត្រូវ និងសេចក្តីថ្លៃថ្នូររបស់មនុស្ស
- ភាពជឿជាក់៖ ប្រព័ន្ធ AI ត្រូវតែអាចដំណើរការដោយភាពជឿជាក់
- សុវត្ថិភាព និងឯកជនភាព៖ ប្រព័ន្ធ AI ត្រូវតែដំណើរការដោយសុវត្ថិភាព និងគោរពភាពឯកជនរបស់អ្នកប្រើប្រាស់។
ដូចដែលបានបញ្ជាក់ដោយក្រសួងការពារជាតិសហរដ្ឋអាមេរិក (DoD) នៅក្នុងរបស់ពួកគេ។ គោលការណ៍សីលធម៌សម្រាប់ការប្រើប្រាស់បញ្ញាសិប្បនិម្មិត ហើយដូចដែលខ្ញុំបានគ្របដណ្តប់ស៊ីជម្រៅ តំណភ្ជាប់នៅទីនេះនេះគឺជាគោលការណ៍សីលធម៌ AI ចម្បងចំនួនប្រាំមួយរបស់ពួកគេ៖
- ទទួលខុសត្រូវ: បុគ្គលិក DoD នឹងអនុវត្តកម្រិតនៃការវិនិច្ឆ័យ និងការថែទាំសមស្រប ខណៈពេលដែលនៅតែទទួលខុសត្រូវចំពោះការអភិវឌ្ឍន៍ ការដាក់ពង្រាយ និងការប្រើប្រាស់សមត្ថភាព AI ។
- សមភាព៖ នាយកដ្ឋាននឹងចាត់វិធានការដោយចេតនា ដើម្បីកាត់បន្ថយភាពលំអៀងដោយអចេតនានៅក្នុងសមត្ថភាព AI ។
- អាចតាមដានបាន៖ សមត្ថភាព AI របស់នាយកដ្ឋាននឹងត្រូវបានបង្កើតឡើង និងដាក់ឱ្យប្រើប្រាស់ ដែលបុគ្គលិកពាក់ព័ន្ធមានការយល់ដឹងសមស្របអំពីបច្ចេកវិទ្យា ដំណើរការអភិវឌ្ឍន៍ និងវិធីសាស្រ្តប្រតិបត្តិការដែលអនុវត្តចំពោះសមត្ថភាព AI រួមទាំងវិធីសាស្រ្តដែលមានតម្លាភាព និងសវនកម្ម ប្រភពទិន្នន័យ និងនីតិវិធីរចនា និងឯកសារ។
- អាចជឿទុកចិត្តបាន: សមត្ថភាព AI របស់នាយកដ្ឋាននឹងមានការប្រើប្រាស់ច្បាស់លាស់ និងច្បាស់លាស់ ហើយសុវត្ថិភាព សុវត្ថិភាព និងប្រសិទ្ធភាពនៃសមត្ថភាពទាំងនោះនឹងត្រូវឆ្លងកាត់ការធ្វើតេស្ត និងការធានានៅក្នុងការប្រើប្រាស់ដែលបានកំណត់នៅទូទាំងវដ្តជីវិតរបស់ពួកគេ។
- អាចគ្រប់គ្រងបាន៖ នាយកដ្ឋាននឹងរចនា និងវិស្វកម្មសមត្ថភាព AI ដើម្បីបំពេញមុខងារដែលបានគ្រោងទុក ខណៈពេលដែលមានសមត្ថភាពក្នុងការរកឃើញ និងជៀសវាងផលវិបាកដែលមិនចង់បាន និងសមត្ថភាពក្នុងការផ្តាច់ ឬបិទប្រព័ន្ធដែលបានដាក់ពង្រាយ ដែលបង្ហាញពីអាកប្បកិរិយាអចេតនា។
ខ្ញុំក៏បានពិភាក្សាផងដែរអំពីការវិភាគសមូហភាពផ្សេងៗនៃគោលការណ៍សីលធម៌ AI រួមទាំងការគ្របដណ្តប់លើសំណុំដែលបង្កើតឡើងដោយអ្នកស្រាវជ្រាវដែលបានពិនិត្យ និងបង្រួមខ្លឹមសារនៃគោលការណ៍សីលធម៌ AI ជាតិ និងអន្តរជាតិជាច្រើននៅក្នុងក្រដាសដែលមានចំណងជើងថា "ទេសភាពសកលនៃគោលការណ៍ណែនាំសីលធម៌ AI" (បោះពុម្ពផ្សាយ ក្នុង ធម្មជាតិ) ហើយការគ្របដណ្តប់របស់ខ្ញុំរុករកនៅ តំណភ្ជាប់នៅទីនេះដែលនាំទៅដល់បញ្ជីគន្លឹះនេះ៖
- តម្លាភាព
- យុត្តិធម៌ និងយុត្តិធម៌
- ភាពមិនអាក្រក់
- ការទទួលខុសត្រូវ
- ភាពឯកជន
- អត្ថប្រយោជន៍
- សេរីភាព និងស្វ័យភាព
- ការជឿទុកចិត្ត
- និរន្តរភាព
- សេចក្តីថ្លៃថ្នូរ
- សាមគ្គីភាព
ដូចដែលអ្នកអាចទាយដោយផ្ទាល់ ការព្យាយាមកំណត់ចំណុចជាក់លាក់នៃគោលការណ៍ទាំងនេះអាចជារឿងពិបាកធ្វើណាស់។ កាន់តែពិសេសជាងនេះទៅទៀត ការខិតខំប្រឹងប្រែងដើម្បីប្រែក្លាយគោលការណ៍ដ៏ទូលំទូលាយទាំងនោះទៅជាអ្វីដែលជាក់ស្តែង និងលម្អិតគ្រប់គ្រាន់ដើម្បីប្រើប្រាស់នៅពេលបង្កើតប្រព័ន្ធ AI ក៏ជាចំណុចពិបាកមួយក្នុងការបំបែក។ វាជាការងាយស្រួលក្នុងការធ្វើការគ្រវីដៃខ្លះៗអំពីអ្វីដែល AI Ethics precepts និងរបៀបដែលពួកគេគួរតែត្រូវបានគេសង្កេតឃើញជាទូទៅ ខណៈពេលដែលវាជាស្ថានភាពស្មុគស្មាញជាងនៅលើការសរសេរកូដ AI ដែលត្រូវតែជាជ័រកៅស៊ូដែលអាចផ្ទៀងផ្ទាត់បានដែលជួបនឹងផ្លូវ។
គោលការណ៍ក្រមសីលធម៌ AI នឹងត្រូវប្រើប្រាស់ដោយអ្នកអភិវឌ្ឍន៍ AI រួមជាមួយនឹងអ្នកដែលគ្រប់គ្រងកិច្ចខិតខំប្រឹងប្រែងក្នុងការអភិវឌ្ឍន៍ AI និងសូម្បីតែអ្នកដែលនៅទីបំផុតអនុវត្ត និងថែទាំប្រព័ន្ធ AI ។ អ្នកពាក់ព័ន្ធទាំងអស់នៅទូទាំងវដ្តជីវិតនៃការអភិវឌ្ឍន៍ និងការប្រើប្រាស់ AI ទាំងមូលត្រូវបានពិចារណាក្នុងវិសាលភាពនៃការគោរពតាមបទដ្ឋានដែលត្រូវបានបង្កើតឡើងនៃ Ethical AI ។ នេះគឺជាការគូសបញ្ជាក់ដ៏សំខាន់មួយចាប់តាំងពីការសន្មត់ជាធម្មតាគឺថា "មានតែអ្នកសរសេរកូដ" ឬអ្នកដែលកម្មវិធី AI ប៉ុណ្ណោះដែលត្រូវប្រកាន់ខ្ជាប់នូវគោលគំនិតសីលធម៌របស់ AI ។ សូមដឹងថា វាត្រូវការភូមិមួយដើម្បីបង្កើត និងធ្វើការវាយតម្លៃ AI ។ ដែលភូមិទាំងមូលត្រូវប្រកាន់ខ្ជាប់នូវក្រមសីលធម៌ AI ។
របៀបដែល AI-Steeped Biasing Scaling ដំណើរការ
ឥឡូវនេះខ្ញុំបាននៅលើតុដែល AI អាចមានភាពលំអៀង យើងបានត្រៀមខ្លួនរួចរាល់ហើយដើម្បីពិនិត្យមើលហេតុផលមួយចំនួនដែលហេតុអ្វីបានជាការធ្វើមាត្រដ្ឋាន AI មានការរំខានខ្លាំង។
ពិចារណាបញ្ជីគន្លឹះនៃហេតុផលមូលដ្ឋានចំនួនដប់៖
- ចម្លងបានយ៉ាងងាយស្រួល
- ការចំណាយតិចតួចបំផុតដើម្បីធ្វើមាត្រដ្ឋាន
- ជាប់គ្នាគួរឱ្យស្អប់ខ្ពើម
- កង្វះការឆ្លុះបញ្ចាំងខ្លួនឯង
- ការស្តាប់បង្គាប់ពិការភ្នែក
- មិនលើកដៃ
- អ្នកទទួលដោយមិនសង្ស័យ
- ទំនោរមិនជំរុញឲ្យមានការញុះញង់
- ភាពមិនពិតនៃយុត្តិធម៌
- ពិបាកបដិសេធ
ខ្ញុំនឹងស្វែងយល់ដោយសង្ខេបនូវចំណុចសំខាន់ៗទាំងនោះ។
នៅពេលអ្នកព្យាយាមបង្កើនកម្លាំងពលកម្មមនុស្ស ហាងឆេងគឺថាការធ្វើដូច្នេះនឹងមានភាពស្មុគស្មាញយ៉ាងខ្លាំង។ អ្នកត្រូវស្វែងរក និងជួលមនុស្ស។ អ្នកត្រូវតែបង្វឹកពួកគេឱ្យធ្វើការងារ។ អ្នកត្រូវបង់ប្រាក់ឱ្យពួកគេ ហើយគិតពីការចង់បាន និងតម្រូវការរបស់មនុស្ស។ ប្រៀបធៀបវាទៅនឹងប្រព័ន្ធ AI ។ អ្នកអភិវឌ្ឍវាហើយដាក់វាឱ្យប្រើ។ ក្រៅពីចំនួននៃការថែទាំបន្តរបស់ AI មួយចំនួន អ្នកអាចអង្គុយចុះ ហើយអនុញ្ញាតឱ្យវាដំណើរការដោយគ្មានទីបញ្ចប់។
នេះមានន័យថា AI ត្រូវបានចម្លងយ៉ាងងាយស្រួល។ អ្នកអាចបន្ថែមថាមពលកុំព្យូទ័របន្ថែមទៀតតាមដែលកិច្ចការនិងបរិមាណអាចនឹងត្រូវការ (អ្នកមិនត្រូវបានជួលឬបញ្ឈប់)។ ការប្រើប្រាស់ជាសកលគឺធ្វើឡើងដោយការចុចប៊ូតុងមួយ ហើយទទួលបានដោយភាពអាចរកបានទូទាំងពិភពលោកនៃអ៊ីនធឺណិត។ ការធ្វើមាត្រដ្ឋានគឺជាការចំណាយតិចតួចបំផុតបើប្រៀបធៀបទៅនឹងការធ្វើដូចគ្នាជាមួយនឹងកម្លាំងពលកម្មមនុស្ស។
ពលកម្មមនុស្សមានភាពមិនស៊ីសង្វាក់គ្នាគួរឱ្យកត់សម្គាល់។ នៅពេលដែលអ្នកមានក្រុមធំ អ្នកមានប្រអប់សូកូឡាដែលអាចផ្ទៀងផ្ទាត់បាន ដែលអ្នកមិនដឹងថាអ្នកអាចមានអ្វីខ្លះនៅក្នុងដៃរបស់អ្នក។ ប្រព័ន្ធ AI ទំនងជាមានភាពស៊ីសង្វាក់គ្នាយ៉ាងខ្លាំង។ វាធ្វើសកម្មភាពដដែលៗម្តងហើយម្តងទៀត រាល់ពេលសំខាន់ដូចគ្នានឹងលើកចុងក្រោយ។
ជាធម្មតា យើងនឹងពេញចិត្តនឹងភាពស្ថិតស្ថេរ AI ។ ប្រសិនបើមនុស្សងាយនឹងលំអៀង នោះយើងនឹងមានចំណែកខ្លះនៃកម្លាំងពលកម្មរបស់យើង ដែលកំពុងតែវង្វេង។ AI ប្រសិនបើគ្មានភាពលម្អៀងសុទ្ធសាធក្នុងការសាងសង់និងការខិតខំប្រឹងប្រែងក្នុងការគណនារបស់វានឹងមានភាពស៊ីសង្វាក់គ្នាជាងមុន។ បញ្ហាគឺថាប្រសិនបើ AI មានភាពលំអៀងលាក់កំបាំង ភាពជាប់លាប់ឥឡូវនេះគឺគួរឱ្យស្អប់ខ្ពើមណាស់។ ហាងឆេងគឺថាអាកប្បកិរិយាលំអៀងនឹងត្រូវបានអនុវត្តជាប់លាប់ ម្តងហើយម្តងទៀត។
មនុស្សនឹងសង្ឃឹមថានឹងមានការឆ្លុះបញ្ចាំងពីខ្លួនឯងខ្លះ ហើយប្រហែលជាចាប់ខ្លួនឯងធ្វើការសម្រេចចិត្តដោយលម្អៀង។ ខ្ញុំមិននិយាយថាទាំងអស់នឹងធ្វើដូច្នេះទេ។ ខ្ញុំក៏មិននិយាយដែរថា អ្នកដែលចាប់ខ្លួនឯងនឹងត្រូវកែកំហុសរបស់ខ្លួន។ ទោះជាយ៉ាងណា យ៉ាងហោចណាស់មនុស្សខ្លះពេលខ្លះកែខ្លួន។
AI ទំនងជាមិនមានទម្រង់នៃការឆ្លុះបញ្ចាំងដោយខ្លួនឯងតាមការគណនាទេ។ នេះមានន័យថា AI គ្រាន់តែបន្តធ្វើអ្វីដែលខ្លួនកំពុងធ្វើ។ វាហាក់បីដូចជាគ្មានឱកាសដែល AI រកឃើញថាវាកំពុងដំណើរការដោយគ្មានសមធម៌។ ដែលត្រូវបាននិយាយនោះ ខ្ញុំបានពណ៌នាកិច្ចខិតខំប្រឹងប្រែងមួយចំនួនដើម្បីដោះស្រាយជាមួយនឹងបញ្ហានេះ ដូចជាការកសាងសមាសធាតុ AI Ethics នៅក្នុង AI (សូមមើល តំណភ្ជាប់នៅទីនេះ) និងបង្កើត AI ដែលត្រួតពិនិត្យ AI ផ្សេងទៀត ដើម្បីដឹងពីសកម្មភាព AI ដែលគ្មានសីលធម៌ (សូមមើល តំណភ្ជាប់នៅទីនេះ).
ដោយខ្វះការគិតពិចារណាដោយខ្លួនឯង AI ក៏ទំនងជាមានការស្តាប់បង្គាប់ដោយងងឹតងងុលចំពោះអ្វីដែលវាត្រូវបានណែនាំឱ្យធ្វើ។ មនុស្សប្រហែលជាមិនស្តាប់បង្គាប់ទេ។ ឱកាសគឺថាមនុស្សមួយចំនួនដែលកំពុងបំពេញភារកិច្ចនឹងចោទសួរថាតើពួកគេប្រហែលជាត្រូវបានដឹកនាំទៅក្នុងទឹកដីអសមធម៌ដែរឬទេ។ ពួកគេមានទំនោរនឹងបដិសេធពាក្យបញ្ជាដែលគ្មានសីលធម៌ ឬប្រហែលជាទៅផ្លូវអ្នកផ្តល់ព័ត៌មាន (សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ) កុំរំពឹងថា AI សហសម័យប្រចាំថ្ងៃនឹងសួរសំណួរអំពីកម្មវិធីរបស់វា។
យើងងាកទៅរកអ្នកដែលកំពុងប្រើ AI ។ ប្រសិនបើអ្នកកំពុងស្វែងរកប្រាក់កម្ចីទិញផ្ទះ ហើយនិយាយជាមួយមនុស្ស អ្នកអាចនឹងមានការប្រុងប្រយ័ត្នរបស់អ្នកថាតើមនុស្សកំពុងផ្តល់ឱ្យអ្នកនូវការរង្គោះរង្គើដោយយុត្តិធម៌ដែរឬទេ។ នៅពេលប្រើប្រព័ន្ធ AI មនុស្សភាគច្រើនហាក់ដូចជាមិនសូវមានការសង្ស័យទេ។ ពួកគេតែងតែសន្មត់ថា AI មានភាពយុត្តិធម៌ ហើយ ergo មិនទទួលបានការកើនឡើងយ៉ាងឆាប់រហ័សនោះទេ។ AI លេចឡើងដើម្បីបញ្ចុះបញ្ចូលមនុស្សឱ្យចូលទៅក្នុង "វាគ្រាន់តែជាម៉ាស៊ីន" trance ។ លើសពីនេះ វាអាចពិបាកក្នុងការព្យាយាម និងតវ៉ាចំពោះ AI។ ផ្ទុយទៅវិញ ការតវ៉ាអំពីរបៀបដែលអ្នកត្រូវបានប្រព្រឹត្តដោយភ្នាក់ងារមនុស្សគឺមានភាពងាយស្រួលជាង ហើយជាទូទៅត្រូវបានទទួលយក និងសន្មតថាអាចធ្វើទៅបាន។
ទាំងអស់ត្រូវបានប្រាប់ AI ដែលមានភាពលំអៀងមានភាពលំអៀងមានជើងដែលមិនគួរឱ្យគោរពលើមនុស្សដែលមានភាពលំអៀងពោលគឺទាក់ទងនឹងលទ្ធភាពដែល AI បានដាក់ពង្រាយភាពលំអៀងទាំងនោះក្នុងទំហំដ៏ធំសម្បើមដោយធ្វើវាដោយមិនងាយចាប់បានឬមានអ្នកប្រើប្រាស់។ ដឹងពីអ្វីដែលកំពុងកើតឡើងដែលគួរឱ្យរំខាន។
នៅចំនុចប្រសព្វនៃការពិភាក្សានេះ ខ្ញុំចង់ភ្នាល់ថា អ្នកពិតជាចង់បានឧទាហរណ៍បន្ថែមមួយចំនួន ដែលអាចបង្ហាញពីភាពច្របូកច្របល់នៃ AI-steeped លំអៀងតាមខ្នាត។
ខ្ញុំរីករាយដែលអ្នកបានសួរ។
មានគំរូដ៏ពេញនិយមពិសេស និងប្រាកដប្រជាដែលនៅជិតបេះដូងខ្ញុំ។ អ្នកឃើញហើយ ក្នុងសមត្ថភាពរបស់ខ្ញុំក្នុងនាមជាអ្នកជំនាញលើ AI រួមទាំងផលប៉ះពាល់ខាងសីលធម៌ និងផ្នែកច្បាប់ ខ្ញុំត្រូវបានគេសួរជាញឹកញាប់ឱ្យកំណត់ឧទាហរណ៍ជាក់ស្តែងដែលបង្ហាញពីភាពលំបាកនៃក្រមសីលធម៌ AI ដូច្នេះ លក្ខណៈទ្រឹស្តីខ្លះនៃប្រធានបទអាចយល់បានកាន់តែងាយស្រួល។ ផ្នែកមួយដែលរំជើបរំជួលបំផុតដែលបង្ហាញឱ្យឃើញច្បាស់អំពីក្រមសីលធម៌ AI នេះគឺការមកដល់នៃរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដដែលមានមូលដ្ឋានលើ AI ។ វានឹងបម្រើជាករណីប្រើប្រាស់ងាយស្រួល ឬជាឧទាហរណ៍សម្រាប់ការពិភាក្សាយ៉ាងទូលំទូលាយលើប្រធានបទ។
ខាងក្រោមនេះជាសំណួរដែលគួរអោយចាប់អារម្មណ៍ដែលគួរពិចារណា៖ តើការមកដល់នៃរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដដែលមានមូលដ្ឋានលើ AI បំភ្លឺអ្វីទាំងអស់អំពីភាពលំអៀងរបស់ AI ហើយប្រសិនបើដូច្នេះ តើនេះបង្ហាញអ្វីខ្លះ?
ទុកពេលឱ្យខ្ញុំមួយភ្លែតដើម្បីស្រាយសំណួរ។
ជាដំបូង សូមចំណាំថា មិនមានអ្នកបើកបរមនុស្សពាក់ព័ន្ធនឹងរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដនោះទេ។ សូមចងចាំថារថយន្តដែលបើកបរដោយខ្លួនឯងពិតប្រាកដគឺត្រូវបានជំរុញតាមរយៈប្រព័ន្ធបើកបរ AI ។ មិនចាំបាច់មានអ្នកបើកបរមនុស្សនៅកង់នោះទេ ហើយក៏មិនមានការផ្តល់ឲ្យមនុស្សដើម្បីបើករថយន្តដែរ។ សម្រាប់ការគ្របដណ្តប់យ៉ាងទូលំទូលាយ និងបន្តរបស់ខ្ញុំនៃយានយន្តស្វយ័ត (AVs) និងជាពិសេសរថយន្តដែលបើកបរដោយខ្លួនឯង សូមមើល តំណភ្ជាប់នៅទីនេះ.
ខ្ញុំចង់បញ្ជាក់បន្ថែមទៀតថាតើវាមានន័យយ៉ាងម៉េចនៅពេលខ្ញុំនិយាយអំពីឡានបើកបរដោយខ្លួនឯង។
ស្វែងយល់ពីកម្រិតនៃរថយន្តបើកបរដោយខ្លួនឯង
ក្នុងនាមជាការបញ្ជាក់មួយរថយន្តបើកបរដោយខ្លួនឯងគឺជាប្រភេទមួយដែលអាយអេសបើកបររថយន្តដោយខ្លួនឯងហើយមិនមានជំនួយពីមនុស្សទេក្នុងពេលបើកបរ។
យានជំនិះគ្មានអ្នកបើកបរទាំងនេះត្រូវបានចាត់ទុកថាជាកម្រិតទី 4 និងកម្រិត 5 (សូមមើលការពន្យល់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ) ខណៈពេលដែលរថយន្តដែលតម្រូវឱ្យអ្នកបើកបរមនុស្សរួមគ្នាចែករំលែកការប្រឹងប្រែងបើកបរជាធម្មតាត្រូវបានចាត់ទុកថានៅកម្រិត 2 ឬកម្រិត 3 ។ រថយន្តដែលរួមគ្នាចែករំលែកភារកិច្ចបើកបរត្រូវបានពិពណ៌នាថាជាពាក់កណ្តាលស្វយ័ត ហើយជាធម្មតាមានភាពខុសគ្នានៃ កម្មវិធីបន្ថែមដោយស្វ័យប្រវត្តិដែលត្រូវបានគេហៅថា ADAS (Advanced Driver-Assistance Systems)។
នៅមិនទាន់មានរថយន្តបើកបរដោយខ្លួនឯងនៅកម្រិត ៥ នៅឡើយទេដែលយើងមិនទាន់ដឹងថាតើវានឹងអាចសម្រេចបានឬអត់ហើយតើវាត្រូវចំណាយពេលប៉ុន្មានដើម្បីទៅដល់ទីនោះ។
ទន្ទឹមនឹងនេះ កិច្ចខិតខំប្រឹងប្រែងកម្រិតទី 4 កំពុងព្យាយាមបន្តិចម្តងៗ ដើម្បីទទួលបានការអូសទាញមួយចំនួន ដោយឆ្លងកាត់ការសាកល្បងផ្លូវសាធារណៈតូចចង្អៀត និងជ្រើសរើស ទោះបីជាមានភាពចម្រូងចម្រាសលើថាតើការធ្វើតេស្តនេះគួរតែត្រូវបានអនុញ្ញាតក្នុងម្នាក់ៗក៏ដោយ (យើងទាំងអស់គ្នាគឺជាជ្រូកហ្គីណេដែលមានជីវិត ឬស្លាប់នៅក្នុងការពិសោធន៍មួយ។ កើតឡើងនៅលើផ្លូវហាយវេ និងផ្លូវរបស់យើង អ្នកខ្លះឈ្លោះគ្នា សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ).
ដោយសាររថយន្តពាក់កណ្តាលស្វ័យភាពតម្រូវឱ្យមានអ្នកបើកបរជាមនុស្សការអនុម័តប្រភេទរថយន្តទាំងនោះនឹងមិនខុសពីការបើកបរយានយន្តធម្មតាទេដូច្នេះមិនមានអ្វីថ្មីទេសម្រាប់និយាយអំពីប្រធានបទនេះ (ទោះបីជាអ្នកនឹងឃើញក៏ដោយ) ក្នុងពេលតែមួយចំនុចដែលបានធ្វើជាទូទៅអាចអនុវត្តបាន) ។
ចំពោះរថយន្តពាក់កណ្តាលស្វយ័តវាជាការសំខាន់ដែលសាធារណជនត្រូវដឹងជាមុនអំពីទិដ្ឋភាពគួរឱ្យព្រួយបារម្ភដែលកំពុងកើតឡើងនាពេលថ្មីៗនេះពោលគឺទោះបីអ្នកបើកបរមនុស្សទាំងនោះនៅតែបន្តបង្ហោះវីដេអូខ្លួនពួកគេដេកលង់លក់ក្នុងកង់រថយន្តកម្រិត ២ ឬលេខ ៣ ក៏ដោយ។ យើងទាំងអស់គ្នាត្រូវចៀសវាងកុំអោយវង្វេងស្មារតីជឿថាអ្នកបើកបរអាចយកការចាប់អារម្មណ៍របស់ពួកគេចេញពីភារកិច្ចបើកបរនៅពេលបើកបររថយន្តពាក់កណ្តាលស្វយ័ត។
អ្នកគឺជាអ្នកទទួលខុសត្រូវចំពោះសកម្មភាពបើកបររបស់យានយន្តដោយមិនគិតពីចំនួនស្វ័យប្រវត្តិកម្មដែលអាចត្រូវបានបោះចូលទៅក្នុងកម្រិត ២ ឬកម្រិត ៣ ។
រថយន្តបើកបរដោយខ្លួនឯង និង AI លំអៀងតាមមាត្រដ្ឋាន
សម្រាប់យានយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដកម្រិតទី ៤ និងទី ៥ នឹងមិនមានអ្នកបើកបរជាមនុស្សចូលរួមក្នុងការងារបើកបរឡើយ។
អ្នកកាន់កាប់ទាំងអស់នឹងក្លាយជាអ្នកដំណើរ។
អេអាយអេកំពុងធ្វើការបើកបរ។
ទិដ្ឋភាពមួយដែលត្រូវពិភាក្សាភ្លាមៗទាក់ទងនឹងការពិតដែលថាអេ។ អាយ។ អិ។ ពាក់ព័ន្ធនឹងប្រព័ន្ធបើកបរ AI សព្វថ្ងៃមិនងាយស្រួលទេ។ និយាយម៉្យាងទៀតអេអាយគឺទាំងអស់គ្នាជាកម្មវិធីរួមបញ្ចូលគ្នានៃកម្មវិធីនិងក្បួនដោះស្រាយដែលផ្អែកលើកុំព្យូទ័រហើយភាគច្រើនប្រាកដជាមិនអាចវែកញែកតាមរបៀបដែលមនុស្សអាចធ្វើបានឡើយ។
ហេតុអ្វីបានជាការសង្កត់ធ្ងន់បន្ថែមអំពីអេអាយមិនមានអារម្មណ៍?
ដោយសារតែខ្ញុំចង់គូសបញ្ជាក់ថានៅពេលពិភាក្សាអំពីតួនាទីរបស់ប្រព័ន្ធបើកបរ AI ខ្ញុំមិនបានបង្ហាញពីគុណសម្បត្តិរបស់មនុស្សទៅនឹង AI ទេ។ សូមមេត្តាជ្រាបថាមានទំនោរដែលកំពុងបន្តនិងមានគ្រោះថ្នាក់នាពេលបច្ចុប្បន្ននេះចំពោះមនុស្សវិទូ។ បើនិយាយអោយចំទៅមនុស្សកំពុងតែផ្តល់នូវមនោសញ្ចេតនាស្រដៀងនឹងមនុស្សទៅនឹងអេអាយអេសព្វថ្ងៃនេះទោះបីជាការពិតដែលមិនអាចប្រកែកបាននិងមិនអាចកាត់ថ្លៃបានថាពុំមាន AI បែបនេះនៅឡើយទេ។
ជាមួយនឹងការបំភ្លឺនោះអ្នកអាចស្មានថាប្រព័ន្ធបើកបរ AI នឹងមិនមាន“ ដឹង” ពីលក្ខណៈនៃការបើកបរ។ ការបើកបរនិងអ្វីទាំងអស់ដែលវាតម្រូវឱ្យមានកម្មវិធីជាផ្នែកមួយនៃផ្នែករឹងនិងផ្នែកទន់នៃឡានបើកបរដោយខ្លួនឯង។
សូមមុជចូលទៅក្នុងទិដ្ឋភាពជាច្រើនដែលបានមកលេងលើប្រធានបទនេះ។
ជាដំបូង វាជារឿងសំខាន់ដែលត្រូវដឹងថា មិនមែនរថយន្តដែលបើកបរដោយខ្លួនឯង AI ទាំងអស់សុទ្ធតែដូចគ្នានោះទេ។ ក្រុមហ៊ុនផលិតរថយន្តនីមួយៗ និងក្រុមហ៊ុនបច្ចេកវិទ្យាបើកបរដោយខ្លួនឯងកំពុងប្រើប្រាស់វិធីសាស្រ្តរបស់ខ្លួនក្នុងការរៀបចំរថយន្តដែលបើកបរដោយស្វ័យប្រវត្តិ។ ដូចនេះ វាពិបាកក្នុងការធ្វើសេចក្តីថ្លែងការណ៍ដ៏ទូលំទូលាយអំពីអ្វីដែលប្រព័ន្ធបើកបរ AI នឹងធ្វើឬមិនធ្វើ។
លើសពីនេះទៅទៀតនៅពេលណាដែលបញ្ជាក់ថាប្រព័ន្ធបើកបរអេអាយមិនធ្វើអ្វីជាក់លាក់ណាមួយនោះនៅពេលក្រោយនេះអាចត្រូវបានអ្នកអភិវឌ្developersន៍យកឈ្នះដែលតាមពិតកម្មវិធីកុំព្យូទ័រអាចធ្វើបាន។ មួយជំហានម្តង ៗ ប្រព័ន្ធបើកបរអេអាយអាយកំពុងត្រូវបានកែលម្អនិងពង្រីកបន្តិចម្តង ៗ ។ ការដាក់កំហិតដែលមានស្រាប់នៅថ្ងៃនេះប្រហែលជាលែងមាននៅក្នុងការបង្កើតឡើងវិញឬកំណែប្រព័ន្ធនាពេលអនាគត។
ខ្ញុំជឿជាក់ថាផ្តល់នូវការព្រមានតិចតួចគ្រប់គ្រាន់ដើម្បីបញ្ជាក់ពីអ្វីដែលខ្ញុំចង់ទាក់ទង។
ឥឡូវនេះ ពួកយើងត្រូវបានចាប់ផ្តើមដើម្បីធ្វើការស្រាវជ្រាវយ៉ាងស៊ីជម្រៅទៅលើរថយន្តដែលបើកបរដោយខ្លួនឯង និងលទ្ធភាពនៃ Ethical AI ដែលរួមមានការស្វែងរកភាពលំអៀងនៃ AI ដែលត្រូវបានផ្សព្វផ្សាយក្នុងទ្រង់ទ្រាយធំ។
ចូរយើងប្រើឧទាហរណ៍ដែលងាយយល់។ រថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI កំពុងដំណើរការនៅលើផ្លូវសង្កាត់របស់អ្នក ហើយហាក់ដូចជាកំពុងបើកបរដោយសុវត្ថិភាព។ ដំបូងឡើយ អ្នកបានយកចិត្តទុកដាក់ជាពិសេសរាល់ពេលដែលអ្នកអាចមើលឃើញរថយន្តបើកបរដោយខ្លួនឯង។ យានជំនិះស្វយ័តនេះបានលេចធ្លោជាមួយនឹងឧបករណ៍ចាប់សញ្ញាអេឡិចត្រូនិចដែលរួមមានកាមេរ៉ាវីដេអូ គ្រឿងរ៉ាដា ឧបករណ៍ LIDAR និងអ្វីៗផ្សេងទៀត។ បន្ទាប់ពីជាច្រើនសប្តាហ៍នៃរថយន្តបើកបរដោយខ្លួនឯងបានធ្វើដំណើរជុំវិញសហគមន៍របស់អ្នក ឥឡូវនេះអ្នកស្ទើរតែមិនកត់សំគាល់វាទេ។ តាមដែលអ្នកបារម្ភ វាគ្រាន់តែជាឡានមួយទៀតនៅលើផ្លូវសាធារណៈដែលមមាញឹករួចទៅហើយ។
ក្រែងអ្នកគិតថាវាមិនអាចទៅរួច ឬមិនអាចយល់បានក្នុងការស៊ាំនឹងការឃើញរថយន្តដែលបើកបរដោយខ្លួនឯង ខ្ញុំបានសរសេរជាញឹកញាប់អំពីរបៀបដែលអ្នកស្រុកដែលស្ថិតក្នុងវិសាលភាពនៃការសាកល្បងរថយន្តបើកបរដោយខ្លួនឯងបានស៊ាំជាបណ្តើរៗដើម្បីឃើញរថយន្តដែលមានការរីកចម្រើន។ មើលការវិភាគរបស់ខ្ញុំនៅ តំណនេះនៅទីនេះ. អ្នកស្រុកជាច្រើននាក់នៅទីបំផុតបានផ្លាស់ប្តូរពីមាត់ស្រែកថ្ងូរ មកឥឡូវនេះបញ្ចេញនូវភាពអផ្សុកយ៉ាងទូលំទូលាយ ដើម្បីបានឃើញរថយន្តដែលបើកបរដោយខ្លួនឯងទាំងនោះ។
ប្រហែលជាមូលហេតុចំបងនៅពេលនេះ ដែលពួកគេអាចសម្គាល់ឃើញយានជំនិះស្វយ័តគឺដោយសារតែកត្តាឆាប់ខឹង និងការហួសចិត្ត។ ប្រព័ន្ធបើកបរ AI ដែលធ្វើឡើងដោយសៀវភៅធ្វើឱ្យប្រាកដថារថយន្តគោរពតាមការកំណត់ល្បឿន និងច្បាប់ផ្លូវទាំងអស់។ សម្រាប់អ្នកបើកបរដ៏មមាញឹកនៅក្នុងរថយន្តបើកបរដោយមនុស្សតាមបែបប្រពៃណីរបស់ពួកគេ អ្នកនឹងមានការធុញទ្រាន់នៅពេលដែលបានជាប់គាំងនៅពីក្រោយរថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI ដែលគោរពច្បាប់យ៉ាងតឹងរ៉ឹង។
នោះជាអ្វីមួយដែលយើងទាំងអស់គ្នាប្រហែលជាត្រូវទម្លាប់ធ្វើ ត្រឹមត្រូវ ឬខុស។
ត្រលប់ទៅរឿងនិទានរបស់យើង។
បង្ហាញថាក្តីបារម្ភមិនទំនងពីរចាប់ផ្តើមកើតឡើងអំពីរថយន្តដែលបើកដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI ដែលទទួលបានការស្វាគមន៍ជាទូទៅ៖
ក. កន្លែងដែល AI កំពុងដើរលើរថយន្តដែលបើកបរដោយខ្លួនឯងសម្រាប់ការជិះបានលេចចេញជាការព្រួយបារម្ភ
ខ. របៀបដែល AI កំពុងព្យាបាលអ្នកថ្មើរជើងដែលកំពុងរង់ចាំដែលមិនមានផ្លូវត្រូវ បានកើនឡើងជាបញ្ហាសំខាន់
ដំបូងឡើយ AI កំពុងតែជិះរថយន្តដែលបើកបរដោយខ្លួនឯងពេញទីក្រុងទាំងមូល។ អ្នកណាដែលចង់ស្នើសុំជិះរថយន្តដែលបើកដោយខ្លួនឯងនោះ ពិតជាមានឱកាសស្មើគ្នាក្នុងការហៅរថយន្តមួយនេះ។ បន្តិចម្ដងៗ AI បានចាប់ផ្តើមរក្សារថយន្តដែលបើកបរដោយខ្លួនឯងជាចម្បងនៅក្នុងផ្នែកមួយនៃទីក្រុង។ ផ្នែកនេះគឺជាអ្នកបង្កើតលុយកាន់តែច្រើន ហើយប្រព័ន្ធ AI ត្រូវបានកម្មវិធីដើម្បីព្យាយាម និងបង្កើនប្រាក់ចំណូលជាផ្នែកនៃការប្រើប្រាស់នៅក្នុងសហគមន៍។
សមាជិកសហគមន៍នៅក្នុងផ្នែកក្រីក្រនៃទីក្រុងទំនងជាមិនសូវមានលទ្ធភាពជិះរថយន្តដែលបើកបរដោយខ្លួនឯងនោះទេ។ នេះគឺដោយសារតែរថយន្តដែលបើកបរដោយខ្លួនឯងបាននៅឆ្ងាយជាង និងកំពុងធ្វើដំណើរក្នុងផ្នែកដែលមានប្រាក់ចំណូលខ្ពស់ជាងក្នុងតំបន់។ នៅពេលដែលសំណើមួយចូលមកពីផ្នែកឆ្ងាយនៃទីក្រុង សំណើណាមួយពីទីតាំងជិតដែលទំនងជានៅក្នុងផ្នែក "គួរឱ្យគោរព" នៃទីក្រុងនឹងទទួលបានអាទិភាពខ្ពស់ជាងនេះ។ នៅទីបំផុត លទ្ធភាពទទួលបានរថយន្តបើកបរដោយខ្លួនឯងនៅកន្លែងណាមួយក្រៅពីផ្នែកដ៏សម្បូរបែបនៃទីក្រុងគឺស្ទើរតែមិនអាចទៅរួចទេ ដែលគួរឱ្យហួសចិត្ត ដូច្នេះសម្រាប់អ្នកដែលរស់នៅក្នុងតំបន់ដែលខ្វះខាតធនធានឥឡូវនេះ។
អ្នកអាចអះអាងថា AI បានធ្លាក់ចុះមកលើទម្រង់នៃការរើសអើងប្រូកស៊ី (ក៏ត្រូវបានគេហៅជាញឹកញាប់ថាជាការរើសអើងដោយប្រយោល)។ AI មិនត្រូវបានរៀបចំឡើងដើម្បីជៀសវាងសង្កាត់ក្រីក្រទាំងនោះ។ ផ្ទុយទៅវិញ វា "បានរៀន" ដើម្បីធ្វើដូច្នេះតាមរយៈការប្រើប្រាស់ ML/DL ។
រឿងនេះគឺថាអ្នកបើកបរមនុស្សជិះកង់ត្រូវបានគេស្គាល់ថាធ្វើដូចគ្នា ទោះបីជាមិនចាំបាច់ទាំងស្រុងដោយសារតែមុំរកលុយក៏ដោយ។ មានអ្នកបើកបរដែលមានមនុស្សជិះមួយចំនួនដែលមានការលម្អៀងមិនសមរម្យអំពីការរើសអ្នកជិះនៅផ្នែកខ្លះនៃទីក្រុង។ នេះជាបាតុភូតដែលគេដឹងខ្លះៗ ហើយទីក្រុងបានដាក់ចេញនូវវិធីសាស្ត្រត្រួតពិនិត្យដើម្បីចាប់អ្នកបើកបរមនុស្សដែលធ្វើសកម្មភាពនេះ។ អ្នកបើកបរមនុស្សអាចជួបបញ្ហាក្នុងការអនុវត្តការជ្រើសរើសដែលមិនពេញចិត្ត
វាត្រូវបានគេសន្មត់ថា AI នឹងមិនធ្លាក់ចូលទៅក្នុងខ្សាច់រហ័សដូចគ្នានោះទេ។ មិនមានការត្រួតពិនិត្យឯកទេសណាមួយត្រូវបានបង្កើតឡើងដើម្បីតាមដានកន្លែងដែលរថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI នឹងទៅនោះទេ។ លុះក្រោយពីសមាជិកសហគមន៍ចាប់ផ្ដើមត្អូញត្អែរ ទើបថ្នាក់ដឹកនាំក្រុងដឹងថាមានអ្វីកើតឡើង។ សម្រាប់ព័ត៌មានបន្ថែមអំពីប្រភេទនៃបញ្ហាទូទាំងទីក្រុងទាំងនេះដែលយានយន្តស្វយ័ត និងរថយន្តបើកបរដោយខ្លួនឯងនឹងបង្ហាញ សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ ហើយដែលពិពណ៌នាអំពីការសិក្សាដែលដឹកនាំដោយសាកលវិទ្យាល័យ Harvard ដែលខ្ញុំបានសហការនិពន្ធលើប្រធានបទនេះ។
ឧទាហរណ៍នៃទិដ្ឋភាពរ៉ូមីងនៃរថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI បង្ហាញពីការចង្អុលបង្ហាញមុននេះថាអាចមានស្ថានភាពដែលនាំឱ្យមនុស្សមានភាពលំអៀងដែលការគ្រប់គ្រងត្រូវបានដាក់ឱ្យដំណើរការ ហើយថា AI ជំនួសអ្នកបើកបរមនុស្សទាំងនោះត្រូវបានទុកចោល។ ឥតគិតថ្លៃ។ ជាអកុសល AI អាចនឹងកើនឡើងបន្តិចម្តងៗនៅក្នុងភាពលំអៀងស្រដៀងគ្នា ហើយធ្វើដូច្នេះដោយគ្មានផ្លូវការពារគ្រប់គ្រាន់។
នេះក៏បង្ហាញពីភាពលំអៀងរបស់ AI នៅក្នុងបញ្ហាខ្នាតផងដែរ។
ក្នុងករណីនៃអ្នកបើកបរមនុស្ស យើងប្រហែលជាមានអ្នកខ្លះនៅទីនេះ ឬទីនោះដែលកំពុងអនុវត្តទម្រង់នៃភាពមិនស្មើភាព។ សម្រាប់ប្រព័ន្ធបើកបរ AI ជាធម្មតាវាជា AI ដែលបង្រួបបង្រួមសម្រាប់រថយន្តបើកបរដោយខ្លួនឯងទាំងមូល។ ដូច្នេះហើយ យើងអាចចាប់ផ្តើមជាមួយនឹងការនិយាយថារថយន្តបើកបរដោយខ្លួនឯងចំនួន 500 គ្រឿងនៅក្នុងទីក្រុង (ទាំងអស់ដំណើរការដោយលេខកូដ AI ដូចគ្នា) ហើយបានកើនឡើងជាលំដាប់ដើម្បីនិយាយថារថយន្តបើកបរដោយខ្លួនឯងចំនួន XNUMX (ទាំងអស់ដំណើរការដោយលេខកូដ AI ដូចគ្នា)។ ដោយសាររថយន្តបើកបរដោយខ្លួនឯងទាំងប្រាំរយគ្រឿងនោះត្រូវបានដំណើរការដោយ AI ដូចគ្នានោះ ពួកវាត្រូវគ្នាទៅនឹងភាពលំអៀង និងវិសមភាពដែលបានមកពីដូចគ្នាដែលបានបង្កប់នៅក្នុង AI ។
ការធ្វើមាត្រដ្ឋានធ្វើឱ្យយើងឈឺចាប់ក្នុងរឿងនេះ។
ឧទាហរណ៍ទីពីរពាក់ព័ន្ធនឹង AI ដែលកំណត់ថាតើត្រូវឈប់សម្រាប់ការរង់ចាំអ្នកថ្មើរជើងដែលមិនមានសិទ្ធិឆ្លងកាត់ផ្លូវនោះទេ។
អ្នកពិតជាបានបើកបរ ហើយបានជួបប្រទះនឹងអ្នកថ្មើរជើងដែលកំពុងរង់ចាំឆ្លងផ្លូវ ហើយពួកគេមិនទាន់មានសិទ្ធិធ្វើផ្លូវនោះទេ។ នេះមានន័យថាអ្នកមានឆន្ទានុសិទ្ធិក្នុងការថាតើត្រូវឈប់ហើយអនុញ្ញាតឱ្យពួកគេឆ្លងកាត់។ អ្នកអាចបន្តដោយមិនអនុញ្ញាតឱ្យពួកគេឆ្លងកាត់ ហើយនៅតែស្ថិតក្នុងច្បាប់បើកបរផ្លូវច្បាប់ពេញលេញនៃការធ្វើដូច្នេះ។
ការសិក្សាអំពីរបៀបដែលអ្នកបើកបរមនុស្សសម្រេចចិត្តឈប់ ឬមិនឈប់សម្រាប់អ្នកថ្មើរជើងបែបនេះ បានបង្ហាញថា ពេលខ្លះអ្នកបើកបរមនុស្សធ្វើការជ្រើសរើសដោយផ្អែកលើភាពលំអៀងដែលមិនសមហេតុផល។ អ្នកបើកបរមនុស្សអាចសម្លឹងមើលអ្នកថ្មើរជើង ហើយជ្រើសរើសមិនឈប់ ទោះបីជាពួកគេនឹងឈប់ក៏ដោយ ប្រសិនបើអ្នកថ្មើរជើងមានរូបរាងខុសគ្នា ដូចជាផ្អែកលើពូជសាសន៍ ឬភេទ។ ខ្ញុំបានពិនិត្យរឿងនេះនៅ តំណភ្ជាប់នៅទីនេះ.
ស្រមៃថារថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI ត្រូវបានកម្មវិធីដើម្បីដោះស្រាយជាមួយនឹងសំណួរថាតើត្រូវឈប់ឬមិនឈប់សម្រាប់អ្នកថ្មើរជើងដែលមិនមានផ្លូវត្រូវ។ នេះជារបៀបដែលអ្នកអភិវឌ្ឍន៍ AI សម្រេចចិត្តរៀបចំកិច្ចការនេះ។ ពួកគេបានប្រមូលទិន្នន័យពីម៉ាស៊ីនថតវីដេអូរបស់ទីក្រុង ដែលត្រូវបានដាក់នៅជុំវិញទីក្រុង។ ទិន្នន័យបង្ហាញពីអ្នកបើកបររបស់មនុស្សដែលឈប់សម្រាប់អ្នកថ្មើរជើងដែលមិនមានផ្លូវត្រូវ និងអ្នកបើកបរមនុស្សដែលមិនឈប់។ វាត្រូវបានប្រមូលទាំងអស់ទៅក្នុងសំណុំទិន្នន័យដ៏ធំមួយ។
ដោយប្រើ Machine Learning និង Deep Learning ទិន្នន័យត្រូវបានយកគំរូតាមការគណនា។ ប្រព័ន្ធបើកបរ AI បន្ទាប់មកប្រើម៉ូដែលនេះដើម្បីសម្រេចថាពេលណាត្រូវឈប់ ឬមិនឈប់។ ជាទូទៅ គំនិតនេះគឺថា អ្វីក៏ដោយដែលទំនៀមទំលាប់ក្នុងស្រុកមាន នោះជារបៀបដែល AI នឹងដឹកនាំរថយន្តដែលបើកបរដោយខ្លួនឯងបាន។
សម្រាប់ភាពភ្ញាក់ផ្អើលនៃអ្នកដឹកនាំទីក្រុង និងអ្នកស្រុក AI ជាក់ស្តែងបានជ្រើសរើសឈប់ ឬមិនឈប់ ដោយផ្អែកលើរូបរាងរបស់អ្នកថ្មើរជើង រួមទាំងពូជសាសន៍ និងភេទរបស់ពួកគេ។ ឧបករណ៍ចាប់សញ្ញានៃរថយន្តដែលបើកបរដោយខ្លួនឯងនឹងស្កេនអ្នកថ្មើរជើងដែលកំពុងរង់ចាំ បញ្ចូលទិន្នន័យនេះទៅក្នុងគំរូ ML/DL ហើយម៉ូដែលនឹងបញ្ចេញទៅ AI ថាតើត្រូវឈប់ ឬបន្ត។ គួរឲ្យសោកស្ដាយ ទីក្រុងនេះមានការលំអៀងអ្នកបើកបរមនុស្សច្រើនរួចទៅហើយ ហើយ AI ឥឡូវនេះកំពុងធ្វើត្រាប់តាមដូចគ្នា។
ឧទាហរណ៍នេះបង្ហាញថាប្រព័ន្ធ AI ប្រហែលជាគ្រាន់តែចម្លងពីភាពលំអៀងដែលមានស្រាប់របស់មនុស្សប៉ុណ្ណោះ។ លើសពីនេះទៀតវាធ្វើដូច្នេះក្នុងទំហំ។ ពេលខ្លះអ្នកបើកបរមនុស្សអាចនឹងត្រូវបានបង្រៀនឱ្យធ្វើទម្រង់នៃការជ្រើសរើសនេះដោយមិនគោរព ឬប្រហែលជាជ្រើសរើសដោយផ្ទាល់ ប៉ុន្តែឱកាសគឺថាអ្នកបើកបរភាគច្រើនប្រហែលជាមិនធ្វើបែបនេះជាសាធារណៈទេ។
ផ្ទុយទៅវិញ ប្រព័ន្ធបើកបរ AI ដែលកំពុងត្រូវបានប្រើប្រាស់ដើម្បីបើកបររថយន្តដែលបើកបរដោយខ្លួនឯងទំនងជានឹងអនុវត្តយ៉ាងខ្ជាប់ខ្ជួននូវភាពលំអៀងដែលបានមកពីមក។
សន្និដ្ឋាន
មានវិធីជាច្រើនដើម្បីព្យាយាម និងជៀសវាងការបង្កើត AI ដែលមានភាពលំអៀងមិនសមរម្យ ឬធ្វើឱ្យមានភាពលំអៀងតាមពេលវេលា។ តាមដែលអាចធ្វើបាន គំនិតគឺត្រូវចាប់បញ្ហាមុនពេលអ្នកចូលទៅក្នុងឧបករណ៍ខ្ពស់ ហើយបង្កើនទំហំសម្រាប់ធ្វើមាត្រដ្ឋាន។ សង្ឃឹមថា ភាពលំអៀងមិនចេញពីមាត់ទ្វារទេ ដូច្នេះដើម្បីនិយាយ។
សន្មតថាទោះបីជាវិធីមួយឬភាពលំអៀងផ្សេងទៀតនឹងកើតឡើងនៅក្នុង AI ។ នៅពេលដែលអ្នកត្រូវបានគេដាក់ពង្រាយក្នុងទំហំដ៏ធំជាមួយនឹង AI នោះ អ្នកមិនត្រឹមតែអាចធ្វើនូវគំនិតមួយក្នុងចំណោមគំនិតបច្ចេកទេស "ភ្លើង និងបំភ្លេច" ដែលត្រូវបានប្រកាសជាញឹកញាប់នោះទេ។ អ្នកត្រូវតែឧស្សាហ៍ព្យាយាមបន្តនូវអ្វីដែល AI កំពុងធ្វើ ហើយស្វែងរកការលំអៀងដែលមិនសមហេតុផល ដែលចាំបាច់ត្រូវកែតម្រូវ។
ដូចដែលបានចង្អុលបង្ហាញពីមុន វិធីសាស្រ្តមួយពាក់ព័ន្ធនឹងការធានាថាអ្នកអភិវឌ្ឍន៍ AI ដឹងពីក្រមសីលធម៌ AI ហើយដូច្នេះជំរុញពួកគេឱ្យឈរនៅលើម្រាមជើងរបស់ពួកគេដើម្បីរៀបចំកម្មវិធី AI ដើម្បីជៀសវាងបញ្ហាទាំងនេះ។ ផ្លូវមួយទៀតមាន AI ត្រួតពិនិត្យដោយខ្លួនឯងសម្រាប់អាកប្បកិរិយាគ្មានសីលធម៌ និង/ឬមាន AI ផ្សេងទៀតដែលត្រួតពិនិត្យប្រព័ន្ធ AI ផ្សេងទៀតសម្រាប់អាកប្បកិរិយាគ្មានសីលធម៌។ ខ្ញុំបានគ្របដណ្តប់ដំណោះស្រាយសក្តានុពលជាច្រើនផ្សេងទៀតនៅក្នុងសំណេររបស់ខ្ញុំ។
គំនិតចុងក្រោយសម្រាប់ពេលនេះ។ ដោយបានចាប់ផ្តើមការពិភាក្សានេះជាមួយនឹងសម្រង់ដោយផ្លាតូ វាអាចជាការសមល្មមក្នុងការបិទសុន្ទរកថាជាមួយនឹងពាក្យសំដីដ៏ឈ្លាសវៃមួយទៀតដោយផ្លាតូ។
ផ្លាតូបានបញ្ជាក់ថាមិនមានគ្រោះថ្នាក់ក្នុងការធ្វើរឿងល្អឡើងវិញទេ។
ភាពងាយស្រួលក្នុងការធ្វើដំណើរតាមមាត្រដ្ឋានជាមួយ AI គឺពិតជាមធ្យោបាយដែលអាចសម្រេចបានក្នុងការសម្រេចបាននូវសេចក្តីប្រាថ្នាដ៏រំភើបមួយ នៅពេលដែល AI ជារបស់ អាយអេសដើម្បីភាពល្អ ភាពចម្រុះ។ យើងរីករាយក្នុងការនិយាយរឿងល្អឡើងវិញ។ នៅពេលដែល AI គឺជា អាយអេសសម្រាប់អាក្រក់ ហើយពោរពេញដោយភាពលំអៀង និងភាពមិនស្មើភាពគ្នា យើងអាចពឹងផ្អែកលើការកត់សម្គាល់របស់ផ្លាតូ ហើយនិយាយថា វាមានគ្រោះថ្នាក់ច្រើនក្នុងការធ្វើរឿងអាក្រក់ម្តងទៀត។
ចូរយើងស្តាប់ដោយប្រុងប្រយ័ត្ននូវពាក្យសម្ដីដ៏ឈ្លាសវៃរបស់ផ្លាតូ ហើយបង្កើត AI របស់យើងទៅតាមនោះ។
ប្រភព៖ https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- global-scale-pecially-fueled- via-looming-fully-autonomous-systems/