ក្រុមហ៊ុនអាកាសចរណ៍មានព័ត៌មានថ្មីៗបន្តិច។
យើងកំពុងស្ថិតក្នុងវិបត្តិជើងហោះហើរក្នុងរដូវក្ដៅ។ អ្នកដំណើរដែលនឿយហត់ និងខកចិត្ត យល់ថាខ្លួនប្រឈមមុខនឹងការរំខានជើងហោះហើរគ្រប់ប្រភេទ និងការបង្ខូចកាលវិភាគរបស់ក្រុមហ៊ុនអាកាសចរណ៍។ ជើងហោះហើរត្រូវបានលុបចោលដោយមិនបានរំពឹងទុក។ ជើងហោះហើរត្រូវបានពន្យារពេល។ ក្លិនអ្នកដំណើរ។ ជាអកុសល មានករណីជាច្រើននៃអ្នកដំណើរដែលអនុញ្ញាតឱ្យមានកំហឹងទាំងនេះផ្ទុះឡើង ហើយយើងបានឃើញវីដេអូមេរោគជាច្រើននៃការប្រឈមមុខដាក់គ្នា ហើយពេលខ្លះមានការប៉ះទង្គិចគ្នាយ៉ាងខ្លាំង។
កម្រណាស់តើយើងរៀនអំពីជម្លោះរវាងអ្នកបើកបរនិងអ្នកបើកយន្តហោះ ដែលអាចកើតឡើងក្នុងពេលនៅក្នុងកាប៊ីន។
នោះពិតជាភ្ញាក់ផ្អើលណាស់។
ជាការពិត យើងមានការភ្ញាក់ផ្អើរដោយធម្មជាតិក្នុងការគិតថាអ្នកបើកបរយន្តហោះ និងអ្នកបើកបរយន្តហោះនឹងមានភាពមិនចុះសម្រុងគ្នាយ៉ាងធ្ងន់ធ្ងរក្នុងដំណាក់កាលណាមួយនៃការហោះហើរ។ ប្រសិនបើការខ្វែងគំនិតគ្នាទាក់ទងនឹងម៉ាកកាហ្វេណាដែលល្អបំផុតនោះ ការសន្មត់របស់យើងគឺថា នេះនឹងមិនប៉ះពាល់ដល់កិច្ចខិតខំប្រឹងប្រែងការងារដែលទាក់ទងនឹងការហោះហើរយន្តហោះនោះទេ។ អ្នកទាំងពីរនឹងគ្រាន់តែបិទមាត់មិនមើលមុខគ្នាលើប្រធានបទដែលហាក់ដូចជាមិនពាក់ព័ន្ធនឹងការហោះហើរ។ អាកប្បកិរិយាប្រកបដោយវិជ្ជាជីវៈ និងការហ្វឹកហ្វឺនពីឡុតដ៏យូរអង្វែងរបស់ពួកគេនឹងចាប់ផ្តើម ហើយពួកគេនឹងផ្តោតការយកចិត្តទុកដាក់របស់ពួកគេត្រឡប់ទៅលើយន្តហោះពិសេស។
ពិចារណាថាពេលណា ក ការមិនចុះសម្រុងនឹងវិជ្ជាជីវៈ អន្តរាគមន៍។
ខ្ញុំនឹងចែករំលែកយ៉ាងខ្លីជាមួយអ្នកនូវព័ត៌មានមួយដែលត្រូវបានផ្សព្វផ្សាយយ៉ាងទូលំទូលាយអំពីករណីថ្មីៗនៃអ្វីមួយដែលបានកើតឡើងក្នុងអំឡុងពេលហោះហើរនៅសហរដ្ឋអាមេរិកទាក់ទងនឹងការមិនចុះសម្រុងគ្នាដែលមានវិជ្ជាជីវៈនៅក្នុងកាប៊ីនយន្ដហោះ។
នេះត្រូវបានគេលើកឡើងជាចម្បងនៅទីនេះ ដូច្នេះយើងអាចស្វែងយល់អំពីប្រធានបទដែលពាក់ព័ន្ធដែលមានសារៈសំខាន់យ៉ាងខ្លាំងចំពោះវត្តមានរបស់ Artificial Intelligence (AI)។ អ្នកឃើញទេ វាអាចមានទម្រង់នៃការខ្វែងគំនិតគ្នាក្នុងវិជ្ជាជីវៈរវាងមនុស្ស មិនមែនត្រឹមតែមនុស្សនៅក្នុងការខ្វែងគំនិតគ្នារវាងមនុស្សទៅមនុស្សនោះទេ ប៉ុន្តែយើងក៏អាចមានរឿងស្រដៀងគ្នានេះកើតឡើងចំពេលដែលការទទួលយក AI និង ergo ដែលបណ្តាលឱ្យមានការខ្វែងគំនិតគ្នារវាងមនុស្ស និង AI ។ . ការពិចារណាអំពីក្រមសីលធម៌ AI គ្រប់ប្រភេទកើតឡើង។ សម្រាប់ការគ្របដណ្តប់យ៉ាងទូលំទូលាយ និងបន្តរបស់ខ្ញុំអំពីក្រមសីលធម៌ AI និងបញ្ហាក្រមសីលធម៌ AI សូមមើល តំណភ្ជាប់នៅទីនេះ និង តំណភ្ជាប់នៅទីនេះ, គ្រាន់តែដាក់ឈ្មោះពីរបី។
រៀបចំខ្លួនអ្នកសម្រាប់រឿងនិទានគួរឱ្យចាប់អារម្មណ៍។
ដូចដែលបានរាយការណ៍នៅក្នុងព័ត៌មានថ្មីៗនេះ ករណីនៃ "ការមិនចុះសម្រុងគ្នាក្នុងវិជ្ជាជីវៈ" ជាក់ស្តែងបានកើតឡើងក្នុងអំឡុងពេលជើងហោះហើរ Alaska Airline ដែលកំពុងធ្វើដំណើរពីទីក្រុង Washington ទៅ San Francisco ។ តាមសេចក្តីរាយការណ៍បានឲ្យដឹងថា ជើងហោះហើរបានរើចេញពីខ្លោងទ្វារចូលមករង់ចាំនៅលើរថយន្តតាក់ស៊ីដើម្បីសុំការអនុញ្ញាតឱ្យតាក់ស៊ីឡើងយន្តហោះ ។ ព្យុះមួយកំពុងដំណើរការ ហើយនាំឱ្យមានការពន្យារពេលហោះហើរជាងមួយម៉ោងកន្លះ។ ទីបំផុតយន្តហោះបានវិលត្រឡប់ទៅច្រកទ្វារវិញ ដែលអ្នកដំណើរខ្លះអាចនឹងស្មានថាជាការប្រុងប្រយ័ត្នសុវត្ថិភាពទាក់ទងនឹងព្យុះ។
តាមធ្វីតធឺផ្សេងៗ វាហាក់បីដូចជាអ្នកបើកយន្តហោះ និងអ្នកបើកយន្តហោះមានការឈ្លោះប្រកែកគ្នាដោយមើលមិនឃើញ អំឡុងពេលដែលពួកគេនៅទីនោះក្នុងកាប៊ីនយន្តហោះ ហើយបានសន្និដ្ឋានថា វិធីសាស្ត្រប្រុងប្រយ័ត្នបំផុតគឺការបោសសម្អាតជើងហោះហើរ ហើយត្រឡប់ទៅស្ថានីយវិញ។ . Tweets បានបង្ហាញថាប្រធានក្រុម និងមន្ត្រីទីមួយទំនងជាមិនអាចទាក់ទងគ្នាបានទេ។ ក្រោយមកក្រុមហ៊ុនអាកាសចរណ៍បានចេញសេចក្តីថ្លែងការណ៍ថាស្ថានភាពមិនល្អ (ស្ថានភាពនេះមិនត្រូវបានបញ្ជាក់ឬពន្យល់ច្បាស់លាស់ទេ) មន្ត្រីជើងហោះហើរទាំងពីរត្រូវបានវាយតម្លៃដោយអ្នកគ្រប់គ្រង និងចាត់ទុកថាសមនឹងហោះហើរ បុគ្គលិកត្រូវបានផ្លាស់ប្តូរ ហើយការហោះហើរបានបញ្ចប់។ ហើយក្រោយមកបានទៅដល់ San Francisco ។
ក្នុងន័យមួយ ប្រសិនបើតាមពិតអ្នកបើកយន្តហោះ និងអ្នកបើកយន្តហោះមានការខ្វែងគំនិតគ្នាក្នុងវិជ្ជាជីវៈ ដូចជាថាតើយន្តហោះបានត្រៀមខ្លួនរួចរាល់សម្រាប់ការហោះហើរ ឬថាតើហានិភ័យនៃការហោះហើរឆ្លងកាត់ព្យុះស្ថិតនៅក្នុងជួរសុវត្ថិភាពសមរម្យ អ្នកដំណើរទាំងនោះគួរតែធូរស្រាល និង អរគុណដែលយន្តហោះត្រូវបានត្រឡប់ទៅច្រកទ្វារ។ មានសុវត្ថិភាពជាងការសោកស្តាយ។ ការពន្យាពេលបន្ថែមគឺសមនឹងការកាត់បន្ថយហានិភ័យដែលត្រូវបានចាត់ទុកថាជាការធ្វើដំណើរដ៏លំបាក ឬមិនអំណោយផល។
មនុស្សមួយចំនួនប្រហែលជាភ្ញាក់ផ្អើលដែលការខ្វែងគំនិតគ្នាបែបវិជ្ជាជីវៈអាចកើតឡើង។
យើងប្រហែលជាមានចំណាប់អារម្មណ៍មិនពិតដែលថាអ្វីគ្រប់យ៉ាងដែលកើតឡើងនៅក្នុងកាប៊ីនយន្ដហោះគឺមានភាពច្បាស់លាស់ទាំងស្រុង និងសរសេរយ៉ាងល្អិតល្អន់។ គ្រប់ទម្រង់នៃការសំរេចចិត្តរបស់មនុស្សហាក់បីដូចជាមិនដំណើរការ។ ដោយផ្អែកលើគំនូសតាងដែលបានគណនាយ៉ាងច្បាស់លាស់ និងហ្មត់ចត់ ជើងហោះហើរមិនអីទេក្នុងការបន្ត ឬមិនដំណើរការ។ វាមិនអាចមានការខ្វែងគំនិតគ្នាទេ នៅពេលដែលឧបករណ៍ទាំងមូល និង caboodle ត្រូវបានគេគិតថាផ្អែកលើការគណនាដែលមិនអាចប្រកែកបាននៃការពិត និងតួលេខ។
នោះមិនមែនជាការពិតពេញលេញនៃបញ្ហានោះទេ។ ប្រាកដណាស់ មានពិធីការ និងការត្រួតពិនិត្យ និងសមតុល្យគ្រប់ប្រភេទ ប៉ុន្តែនេះមិនច្របាច់ចេញទាំងអស់ iota នៃការវិនិច្ឆ័យរបស់មនុស្សទេ។ អ្នកបើកយន្តហោះ និងអ្នកបើកយន្តហោះនៅតែអនុវត្តការវិនិច្ឆ័យរបស់មនុស្ស។ ជាសំណាងល្អ ការវិនិច្ឆ័យរបស់មនុស្សនេះត្រូវបានគោរពដោយការហោះហើរជាច្រើនឆ្នាំ។ ហាងឆេងគឺថាអ្នកបើកយន្តហោះ និងអ្នកបើកយន្តហោះនៅក្នុងយន្តហោះដឹកអ្នកដំណើរពាណិជ្ជកម្មមានបទពិសោធន៍នៃការហោះហើរពីមុន ហើយអាចប្រើប្រាស់បានយ៉ាងងាយនូវហេតុផល និងការវិនិច្ឆ័យស៊ីជម្រៅជាច្រើនឆ្នាំរបស់ពួកគេដែលទាក់ទងនឹងការគ្រប់គ្រងការហោះហើរ។
ដោយសារតួនាទីដ៏គួរឱ្យកត់សម្គាល់នៃការវិនិច្ឆ័យរបស់មនុស្ស យើងអាចគិតទុកជាមុនដោយសមហេតុផលថា ពេលខ្លះអ្នកបើកបរនិងអ្នកបើកយន្តហោះនឹងមានការខ្វែងគំនិតគ្នាក្នុងវិជ្ជាជីវៈ។ ភាគច្រើនទំនងជាមានការខ្វែងគំនិតគ្នាតិចតួចណាស់។ អ្នកបើកយន្តហោះ និងអ្នកបើកយន្តហោះសម្រាប់ជើងហោះហើរប្រចាំថ្ងៃ ទំនងជាត្រូវបានតម្រឹមយ៉ាងល្អទៅនឹងការគិតទុកជាមុននៃពេលវេលា។ មានតែពេលដែលសេណារីយ៉ូហោះហើរអាចទៅក្រៅព្រំដែនធម្មតាប៉ុណ្ណោះ ទើបយើងរំពឹងថានឹងមានភាពតានតឹងកាន់តែខ្លាំងឡើង។
បើមានការយល់ឃើញខុសគ្នាខ្លាំងរវាងអ្នកទាំងពីរ ខ្ញុំហ៊ាននិយាយថា យើងចង់ឲ្យគេលុបចោល។
ស្រមៃមើលស្ថានភាពដែលអ្នកបើកយន្តហោះចង់បន្ត ប៉ុន្តែអ្នកបើកយន្តហោះយល់ថាហានិភ័យខ្ពស់ពេក។ គ្រាន់តែមាន copilot kowtow ទៅកាន់អ្នកបើកយន្តហោះ ហាក់ដូចជាមិនចង់បាន។ អ្នកបើកយន្តហោះគឺជាការត្រួតពិនិត្យ និងសមតុល្យទៅនឹងអ្វីដែលអ្នកបើកយន្តហោះអាចនឹងគិតចង់ធ្វើ។ សម្រាប់អ្នកដែលចង់ឱ្យអ្នកបើកយន្តហោះបិទមាត់ ហើយធ្វើសកម្មភាពដោយមិនគិតអ្វីទាំងអស់ចំពោះអ្នកបើកយន្តហោះ នោះមិនមែនជាការធានាច្រើននោះទេ។ អ្នកបើកយន្តហោះមិនមែនគ្រាន់តែជា "អ្នកបើកយន្តហោះ" ទំនេរដែលចូលទៅក្នុងរូបភាពតែនៅពេលដែលអ្នកបើកយន្តហោះគ្មានសមត្ថភាពទាំងស្រុងនោះទេ។ នោះជាការយល់ខុសអំពីតម្លៃនៃការមានអ្នកបើកបរ និងអ្នកបើកបរនៅក្នុងកាប៊ីនយន្ដហោះ។
មានមុំផ្សេងទៀតចំពោះរឿងនេះ។
ពិចារណាករណីរបស់អ្នកបើកយន្តហោះដែលមិនជឿថាការហោះហើរគួរតែដំណើរការ ហើយទន្ទឹមនឹងនោះអ្នកបើកយន្តហោះគឺ Gung-ho អំពីការឡើងលើអាកាស។ ចុះយ៉ាងណាវិញ? តាមឋានានុក្រមដែលបានរំពឹងទុក អ្នកបើកយន្តហោះត្រូវបានគេសន្មត់ថាមានជ័យជំនះលើអ្នកបើកតាមធម្មតា។ តួនាទីដែលបានកំណត់ក្នុងការជាអ្នកទទួលខុសត្រូវចម្បង ធ្វើឱ្យអ្នកបើកយន្តហោះកាន់តែធំ បើមិនដូច្នេះទេគឺស្មើគ្នា។ ជាធម្មតា អ្នកបើកយន្តហោះមានពេលវេលាហោះហើរសរុបច្រើនជាងអ្នកបើកយន្តហោះ ហើយ ergo ពីឡុតត្រូវបានសន្មតថាតាមឋានានុក្រមដើម្បីពន្យារការចង់បានរបស់អ្នកបើកយន្តហោះ (នៅពេលមានហេតុផល)។
ក្នុងករណីណាក៏ដោយ ខ្ញុំគិតថា យើងទាំងអស់គ្នាអាចយល់ស្របថា ការជ្រើសរើសមិនហោះហើរ គឺជាជម្រើសដែលមានហានិភ័យតិចជាងការសម្រេចចិត្តហោះហើរ។ នៅពេលដែលយន្តហោះឡើងលើអាកាស កម្រិតហានិភ័យកើនឡើងយ៉ាងខ្លាំងបើប្រៀបធៀបទៅនឹងការហោះហើរលើដីដែលមានស្ថេរភាពធម្មតា។ ជើងហោះហើរពាណិជ្ជកម្មតាមទម្លាប់ដែលគ្រាន់តែតាក់ស៊ីត្រឡប់ទៅស្ថានីយដោយមិនចាំបាច់ឡើងលើអាកាស នឹងក្លាយជាដំណោះស្រាយប្រកបដោយភាពស្និទ្ធស្នាលបំផុតចំពោះការជជែកវែកញែកដ៏ក្តៅគគុកអំពីការហោះហើរ។
ចូរប្តូរវេនគ្នា ហើយប្រើព័ត៌មានដ៏គួរឱ្យភ្ញាក់ផ្អើលនេះ សម្រាប់គោលបំណងខុសគ្នាទាំងស្រុង ប៉ុន្តែអាចទាក់ទងបាន។
យើងកំពុងមានជាបណ្តើរៗក្នុងចំណោមពួកយើងនូវប្រេវ៉ាឡង់នៃប្រព័ន្ធស្វយ័តដែលមានមូលដ្ឋានលើ AI ។ ពេលខ្លះ AI ដំណើរការកម្មវិធីដូចដែលវាធ្លាប់មាន។ AI ធ្វើអ្វីគ្រប់យ៉ាងពី A ដល់ Z ហើយយើងអាចសន្និដ្ឋានថាវាជា AI ដែលមានស្វ័យភាពពេញលេញ ឬជិតដូច្នេះ។ ក្នុងករណីផ្សេងទៀត យើងអាចមាន AI ដែលធ្វើអន្តរកម្មជាមួយ និងក្នុងកម្រិតខ្លះត្រូវបានកម្មវិធីឱ្យពឹងផ្អែកលើការមានមនុស្សក្នុងរង្វង់។
ខ្ញុំចង់ផ្តោតទៅលើបញ្ហានៃប្រព័ន្ធស្វយ័ត ឬពាក់កណ្តាលស្វយ័តដែលមានមូលដ្ឋានលើ AI ដែលពីដំណើរទៅមានមនុស្សនៅក្នុងរង្វិលជុំ។ AI និងមនុស្សមានចេតនារួមគ្នាហើយសន្មត់ថាត្រូវធ្វើការជាមួយគ្នា។ ពួកគេជាក្រុមក្នុងការបំពេញកិច្ចការជាក់លាក់មួយនៅនឹងដៃ។ AI តែម្នាក់ឯងមិនត្រូវបានគេសន្មត់ថាធ្វើសកម្មភាពលើកិច្ចការនោះទេ។ AI ត្រូវតែមានអន្តរកម្មជាមួយមនុស្សក្នុងរង្វង់ដែលបានកំណត់។
ខ្ញុំលើកយកចរិតលក្ខណៈនេះ ដើម្បីបែងចែកពីស្ថានភាពដែលមនុស្សនៅក្នុងរង្វង់ត្រូវបានចាត់ទុកថាជាមុខសញ្ញាស្រេចចិត្ត។ ជាទូទៅ AI ត្រូវបានផ្តល់ឱ្យដោយឥតគិតថ្លៃ។ ប្រសិនបើ AI ជ្រើសរើសប្រើប្រាស់មនុស្ស ដូច្នេះត្រូវធ្វើវា។ មិនមានតម្រូវការដែល AI ត្រូវប៉ះមូលដ្ឋានជាមួយ ឬធ្វើការដៃជាមួយមនុស្សដែលបានកំណត់នោះទេ។ ការវិភាគដែលខ្ញុំរៀបនឹងនិយាយគឺពិតជាទាក់ទងនឹងប្រភេទនោះ។ ស្រេចចិត្ត ការរៀបចំអន្តរកម្ម ប៉ុន្តែវាមិនមែនជាអ្វីដែលខ្ញុំកំពុងជំរុញជាពិសេសនៅក្នុងការពិភាក្សាពិសេសនេះទេ។
មិនអីទេ យើងមានកិច្ចការមួយចំនួនដែលមនុស្ស និង AI នឹងធ្វើការជាមួយគ្នា ដោយមិនអាចបំបែកចេញពីគ្នាទៅវិញទៅមកបាន។ ក្នុងន័យអរូបី យើងមានមនុស្សអង្គុយមួយកៅអី និងប្រព័ន្ធ AI អង្គុយនៅកៅអីអមជាមួយ។ ខ្ញុំនិយាយនេះដោយថ្ពាល់ព្រោះយើងមិនបង្ខាំងការពិភាក្សានេះចំពោះមនុស្សយន្តទេ ជាឧទាហរណ៍ ប្រហែលជាកំពុងអង្គុយនៅកៅអី។ ខ្ញុំនិយាយប្រៀបធៀបទៅនឹងគំនិតដែលថា AI គឺនៅកន្លែងណាមួយដែលចូលរួមក្នុងកិច្ចការ ហើយមនុស្សក៏ដូចគ្នាដែរ។ ខាងរាងកាយ កន្លែងលាក់ខ្លួនរបស់ពួកគេមិនមានសារៈសំខាន់ជាពិសេសចំពោះការពិភាក្សានោះទេ។
អ្នកប្រហែលជាមិនប្រាកដថាពេលណាកាលៈទេសៈបែបនេះអាចនឹងកើតឡើង។
ងាយស្រួលបំផុត។
នៅពេលក្រោយ ខ្ញុំនឹងពិភាក្សាអំពីការមកដល់នៃយានយន្តស្វយ័ត និងរថយន្តដែលបើកបរដោយស្វ័យប្រវត្តិ។ នៅកម្រិតស្វ័យភាពជាក់លាក់ AI និងមនុស្សត្រូវបានគេសន្មត់ថាធ្វើការជាមួយគ្នា។ AI អាចនឹងកំពុងបើករថយន្ត ហើយស្នើឲ្យមនុស្សគ្រប់គ្រងការបើកបរ។ មនុស្សប្រហែលជាកំពុងបើកឡាន ហើយបើកដំណើរការ AI ដើម្បីគ្រប់គ្រង។ ពួកគេកំពុងប្តូរវេននៅកន្លែងគ្រប់គ្រងការបើកបរ។
លើសពីនេះទៀត ការរចនាមួយចំនួនមាន AI សកម្មគ្រប់ពេលវេលា (ឬលុះត្រាតែបិទ) ដូចជា AI តែងតែរួចរាល់។ ជាងនេះទៅទៀត AI អាចនឹងធ្វើអន្តរាគមន៍ដោយផ្ទាល់ ទោះបីជាគ្មានមនុស្សសួរក៏ដោយ អាស្រ័យលើស្ថានភាពដែលកំពុងលាតត្រដាង។ ឧបមាថាមនុស្សហាក់ដូចជាបានដេកលក់នៅកង់។ ដោយសារមនុស្សហាក់ដូចជាមិនអាចដំណើរការ AI បានទេ (ដោយសារតែមនុស្សកំពុងដេក) AI អាចនឹងត្រូវបានកម្មវិធីដើម្បីគ្រប់គ្រងពីមនុស្ស។
ការរចនាមួយចំនួននាំ AI និងមនុស្សចូលទៅក្នុងវិធីសាស្រ្តបើកបរពីរ។ AI កំពុងបើកបរ ហើយមនុស្សកំពុងបើកបរ។ ឬប្រសិនបើអ្នកចង់ មនុស្សកំពុងបើកបរ ហើយ AI ក៏កំពុងបើកបរផងដែរ។ ពួកគេម្នាក់ៗបើកឡាន។ ខ្ញុំប្រដូចរថយន្តនេះទៅនឹងរថយន្តដែលបំពាក់ដោយម៉ាស៊ីនពិសេស ដែលប្រហែលជាអ្នកបានប្រើពេលទទួលការបណ្តុះបណ្តាលអ្នកបើកបរ ហើយមានពីរឈុតនៃការគ្រប់គ្រងការបើកបរក្នុងរថយន្ត មួយសម្រាប់អ្នកបើកបរសិស្ស និងមួយសម្រាប់គ្រូបង្រៀនបើកបរ។
នោះគ្រាន់តែជាឧទាហរណ៍មួយនៃការកំណត់ដែល AI និងមនុស្សអាចធ្វើការរួមគ្នាលើកិច្ចការមួយ។ លទ្ធភាពទាំងអស់មាន។ យានជំនិះស្វយ័តប្រភេទផ្សេងទៀតអាចត្រូវបានរៀបចំស្រដៀងគ្នា ដូចជាយន្តហោះ យន្តហោះគ្មានមនុស្សបើក នាវាមុជទឹក កប៉ាល់លើដី រថភ្លើងជាដើម។ យើងមិនចាំបាច់គិតតែពីការកំណត់រថយន្ត និងការដឹកជញ្ជូនទេ។ ស្រមៃមើលដែនវេជ្ជសាស្រ្ត និងការវះកាត់ដែលកំពុងត្រូវបានអនុវត្តរួមគ្នាដោយវេជ្ជបណ្ឌិត និងប្រព័ន្ធ AI ។ បញ្ជីគឺគ្មានទីបញ្ចប់។
ខ្ញុំស្ទើរតែមានអារម្មណ៍ថាចង់សំដៅទៅលើរឿងកំប្លែងដ៏គ្រោតគ្រាតបែបបុរាណអំពីមនុស្ស និង AI ដែលដើរចូលទៅក្នុងបារជាមួយគ្នា។ វាពិតជាសើចសម្រាប់អ្នកដែលចូលទៅក្នុង AI ។
ជាក់ស្តែង ចូរយើងត្រលប់ទៅការផ្តោតអារម្មណ៍របស់មនុស្ស និងប្រព័ន្ធ AI ដែលកំពុងធ្វើការរួមគ្នាលើកិច្ចការដែលបានផ្តល់ឱ្យ។ ជាដំបូង ខ្ញុំចង់ជៀសវាង anthropomorphizing AI ដែលជាអ្វីដែលខ្ញុំនឹងសង្កត់ធ្ងន់។ AI មិនមានមនោសញ្ចេតនាទេ។ សូមរក្សាវាទុកក្នុងចិត្ត។
នេះជាអ្វីដែលត្រូវពិចារណា៖ តើមនុស្សក្នុងរង្វង់ដែលបានកំណត់តែងតែមានការព្រមព្រៀងទាំងស្រុងជាមួយ AI ដែលសហការជាក្រុមឬ?
សម្រាប់កិច្ចការដ៏ស្មុគស្មាញណាមួយ វាហាក់ដូចជាមិនទំនងដែលថាមនុស្ស និង AI នឹងមានភាពពេញលេញ ហើយតែងតែស្ថិតក្នុងការចាក់សោរ និងជំហាន។ មនុស្សនៅក្នុងឱកាសមួយចំនួនដែលអាចនឹងមិនយល់ស្របជាមួយ AI ។ យើងអាចយកការសន្មត់នោះទៅធនាគារ។
ខ្ញុំចង់ឱ្យអ្នកពិចារណាផងដែរអំពីលទ្ធភាពដ៏គួរឱ្យភ្ញាក់ផ្អើលនេះផងដែរ៖ តើ AI តែងតែស្ថិតក្នុងការព្រមព្រៀងទាំងស្រុងជាមួយនឹងមនុស្សដែលបានកំណត់ក្នុងរង្វង់ទេ?
ជាថ្មីម្តងទៀត សម្រាប់កិច្ចការស្មុគស្មាញណាមួយ វាហាក់ដូចជាអាចយល់បានថា AI នឹងមិនចុះសម្រុងនឹងមនុស្សក្នុងឱកាសមួយចំនួន។ ប្រសិនបើអ្នកកំពុងងាកទៅរកគំនិតដែលថា AI ត្រូវតែខុសជានិច្ច ខណៈពេលដែលមនុស្សត្រូវតែត្រឹមត្រូវជានិច្ច នោះអ្នកនឹងមានប្រាជ្ញាក្នុងការគិតឡើងវិញនូវការសន្និដ្ឋានដ៏ប្រញាប់ប្រញាល់នោះ។ ស្រមៃមើលរថយន្តដែលមានមនុស្ស និង AI រួមគ្នាបើកបររថយន្តពាក់កណ្តាលស្វ័យប្រវត្តិ។ មនុស្សតម្រង់ទៅជញ្ជាំងឥដ្ឋ។ ហេតុអ្វី? យើងមិនដឹងទេ ប្រហែលជាមនុស្សស្រវឹង ឬបានដេកលក់ ប៉ុន្តែយើងដឹងថា ការបុកជញ្ជាំងឥដ្ឋមិនមែនជាគំនិតល្អទេ អ្វីៗផ្សេងទៀតគឺស្មើគ្នា។ AI អាចនឹងរកឃើញគ្រោះមហន្តរាយដែលនឹងមកដល់ ហើយព្យាយាមគេចចេញពីឧបសគ្គដែលនឹងមកដល់។
ទាំងអស់បានប្រាប់, យើងនឹងមានលទ្ធភាពផ្សេងគ្នានៃ AI និងមនុស្សមិនយល់ស្របជាមួយគ្នា។ មធ្យោបាយមួយទៀតដែលនិយាយដូចគ្នាគឺមនុស្ស និង AI មិនចុះសម្រុងនឹងគ្នា។ ចំណាំថាខ្ញុំមិនចង់ឱ្យការចាត់ថ្នាក់នៃ AI-and-human ធៀបនឹង human-and-AI ដើម្បីណែនាំអ្វីទាំងអស់អំពីទិសដៅ ឬភាពអាចជឿជាក់បាននៃការខ្វែងគំនិតគ្នា។
កម្មករទាំងពីរនាក់ម្នាក់ជាមនុស្ស និងម្នាក់ទៀតជាអាយ.អាយ.
យើងអាចប្រកាសជាមុនថានៅពេលដែលការមិនចុះសម្រុងគ្នាកើតឡើងរវាង AI និងមនុស្សដែលបានផ្តល់ឱ្យនោះ យើងនឹងប្រកាសជាមុនថាមនុស្សឈ្នះលើ AI ។ បើនិយាយដូច្នេះ គំរូឧទាហរណ៍របស់ខ្ញុំអំពីឡានដែលបើកចូលជញ្ជាំងឥដ្ឋ ហាក់ដូចជារារាំងយើងថា មនុស្សតែងតែត្រូវ។
ផ្ទុយទៅវិញ យើងអាចជ្រើសរើសធ្វើការប្រកាសជាមុនថា នៅពេលណាដែលមានការខ្វែងគំនិតគ្នាកើតឡើង យើងនឹងកំណត់ជាមុនថា AI ត្រឹមត្រូវ ហើយមនុស្សខុស។ នេះក៏មិនមែនជាបទប្បញ្ញត្តិដែលអាចយល់បានទូទៅដែរ។ ស្រមៃមើលរថយន្តដែល AI មានកំហុសផ្នែកទន់ ឬកំហុសមួយចំនួន ហើយ AI កំពុងព្យាយាមកាច់ចង្កូតរថយន្តចេញពីផ្លូវ ហើយចូលទៅក្នុងប្រឡាយ។ ដោយសន្មតថាអ្វីៗផ្សេងទៀតស្មើគ្នា មនុស្សគួរតែអាចយកឈ្នះលើសកម្មភាពបើកបរ AI នេះ និងការពារយានជំនិះពីការចុះចតនៅក្នុងជ្រោះ។
ចូរយើងធ្វើការសង្ខេបខ្លីៗអំពីរឿងនេះ៖
- តើមនុស្សនៅក្នុងរង្វង់តែងតែមានកិច្ចព្រមព្រៀងទាំងស្រុងជាមួយ AI ដែរឬទេ? ចម្លើយ: លេខ
- តើ AI តែងតែមានកិច្ចព្រមព្រៀងទាំងស្រុងជាមួយមនុស្សក្នុងរង្វង់ទេ? ចម្លើយ: ទេ.
- តើមនុស្សក្នុងរង្វង់តែងតែត្រឹមត្រូវបើប្រៀបធៀបនឹង AI? ចម្លើយ: មិនចាំបាច់។
- តើ AI តែងតែត្រឹមត្រូវក្នុងការប្រៀបធៀបទៅនឹងមនុស្សក្នុងរង្វង់ទេ? ចម្លើយ៖ មិនចាំបាច់ទេ។.
អ្នកពិតជាអាចរៀបចំ AI ដែលត្រូវចាត់ទុកតាមលំនាំដើមថាជា "ខុស" ឬភាគីទន់ខ្សោយ ដូច្នេះហើយតែងតែបង្វែរមនុស្សនៅពេលមានការខ្វែងគំនិតគ្នាកើតឡើង។ ដូចគ្នានេះដែរ អ្នកអាចដំឡើង AI ដើម្បីសន្មតថា AI ត្រូវបានចាត់ទុកថា "ត្រឹមត្រូវ" នៅពេលដែលមនុស្សមិនយល់ស្របជាមួយ AI ។ ខ្ញុំចង់បញ្ជាក់ថា យើងអាចធ្វើតាមកម្មវិធីបានប្រសិនបើយើងចង់ធ្វើដូច្នេះ។ ខ្ញុំអះអាងថា ជាទូទៅ នេះមិនមែនតែងតែកើតឡើងនោះទេ។ ប្រាកដណាស់មានការកំណត់ដែលយើងមិនដឹងជាមុនថាតើ AI គឺ "ត្រឹមត្រូវ" ឬមនុស្ស "ត្រឹមត្រូវ" នៅក្នុងលក្ខខណ្ឌនៃការជ្រើសរើសឆ្ពោះទៅរកមួយ ឬមួយផ្សេងទៀតលើការខ្វែងគំនិតគ្នាទាក់ទងនឹងកិច្ចការដែលបានផ្តល់ឱ្យ។
ខ្ញុំបាននាំអ្នកទៅកាន់សំណួរសំខាន់ និងស្មុគស្មាញខ្លាំង។
តើយើងគួរធ្វើយ៉ាងណានៅពេលដែលការខ្វែងគំនិតគ្នារវាងមនុស្សក្នុងរង្វង់និង AI (ឬក៏យើងអាចនិយាយថាវាជារវាង AI និងមនុស្សក្នុងរង្វង់)?
កុំព្យាយាមគេចពីសំណួរ។
អ្នកខ្លះអាចនឹងប្រកែកថាវានឹងមិនកើតឡើងទេ ប៉ុន្តែដូចដែលខ្ញុំបានដាក់ចេញក្នុងឧទាហរណ៍របស់ខ្ញុំអំពីរថយន្ត វាប្រាកដជាអាចកើតឡើង។ អ្នកខ្លះប្រហែលជាប្រកែកថាមនុស្សពិតជាពូកែជាង ហើយត្រូវតែជាអ្នកឈ្នះការមិនចុះសម្រុងគ្នា។ ឧទាហរណ៍របស់ខ្ញុំអំពីរថយន្ត និងជញ្ជាំងឥដ្ឋនោះបានធ្វើឲ្យធ្លាក់ចុះ។ មានអ្នកគាំទ្រ AI ដែលអាចទទូចថា AI ត្រូវតែជាអ្នកឈ្នះ ដោយសារតែការយកឈ្នះលើអារម្មណ៍របស់មនុស្ស និងការគិតបែបអន្ទះអន្ទែងដោយមនុស្សគិតខុសឆ្គងទាំងនោះ។ ជាថ្មីម្តងទៀត គំរូផ្សេងទៀតរបស់ខ្ញុំដែលបង្ហាញពីរថយន្តដែលចូលទៅក្នុងប្រឡាយបានកាត់បន្ថយការអះអាងនោះ។
នៅក្នុងពិភពពិត AI និងមនុស្សនឹងខ្វែងគំនិតគ្នា សូម្បីតែនៅពេលដែលអ្នកទាំងពីរត្រូវបាននាំយកមកក្នុងស្ថានភាពជាក្រុមមួយ ដើម្បីបំពេញកិច្ចការរួមគ្នាមួយ។ វានឹងកើតឡើង។ យើងមិនអាចដាក់ក្បាលរបស់យើងនៅក្នុងខ្សាច់ ហើយធ្វើពុតថាវានឹងមិនកើតឡើងនោះទេ។
យើងបានឃើញថាមនុស្សដែលបើកយន្តហោះមានការខ្វែងគំនិតគ្នាជាក់ស្តែង។ អរគុណណាស់ដែលពួកគេបានយល់ព្រមមិនយល់ស្របដូច្នេះវាហាក់ដូចជា។ ពួកគេបាននាំយន្តហោះត្រឡប់ទៅស្ថានីយវិញ។ ពួកគេបានរកឃើញមធ្យោបាយដើម្បីដោះស្រាយការខ្វែងគំនិត។ ដំណោះស្រាយចំពោះការមិនចុះសម្រុងគ្នារបស់ពួកគេដំណើរការបានល្អ បើប្រៀបធៀបទៅនឹងប្រសិនបើពួកគេបានទៅឈ្លោះគ្នាក្នុងកាប៊ីនយន្តហោះ ឬប្រហែលជាហោះទៅលើអាកាស ហើយបន្តការប្រយុទ្ធគ្នាទៅវិញទៅមក។ នោះជាសេណារីយ៉ូដ៏សោកសៅដែលមិនអាចដោះស្រាយបាន ហើយយើងអាចដឹងគុណមិនបានកើតឡើង។
អនុញ្ញាតឱ្យខ្ញុំផ្តល់បញ្ជីរបស់ខ្ញុំនូវវិធីផ្សេងៗដែលការខ្វែងគំនិតគ្នារវាង AI និង human-in-the-loop (ឬ human-in-the-loop និង AI) អាចត្រូវបានដោះស្រាយ៖
- AI និងមនុស្សរួមគ្នាធ្វើការចេញទៅក្រៅ (មិត្តភាពឬអត់)
- មនុស្សឈ្នះលើ AI តាមលំនាំដើម
- តាមលំនាំដើម AI យកឈ្នះលើមនុស្ស
- ដំណោះស្រាយថេរដែលបានកំណត់ទុកជាមុនមួយចំនួនទៀត ឈ្នះតាមលំនាំដើម
- មនុស្សភាគីទីបីត្រូវបានបញ្ជូលគ្នា ហើយការបង្ហាញរបស់ពួកគេមានឥទ្ធិពលលើភាគី
- AI ភាគីទីបីត្រូវបានបញ្ជូលគ្នា ហើយការចង្អុលបង្ហាញរបស់វាមានលើភាគី
- មនុស្សភាគីទីបីជំនួសមនុស្សដែលមានស្រាប់ អ្វីៗដំណើរការជាថ្មី
- AI ភាគីទីបីជំនួស AI ដែលមានស្រាប់ អ្វីៗដំណើរការជាថ្មី
- មនុស្សភាគីទីបីជំនួស AI ដែលមានស្រាប់ អ្វីៗដំណើរការជាថ្មី (ឥឡូវនេះពីមនុស្សទៅមនុស្ស)
- AI ភាគីទីបីជំនួសមនុស្សដែលមានស្រាប់ អ្វីៗដំណើរការជាថ្មី (ឥឡូវ AI-to-AI)
- ផ្សេងទៀត
ទាំងនោះគឺជាបរិបូរណ៍សក្ដិសមនៃការត្រូវបានពន្លា។
មុននឹងចូលទៅក្នុងសាច់ និងដំឡូងមួយចំនួនបន្ថែមទៀតអំពីការពិចារណាអំពីព្រៃ និងរោមចៀមដែលជាមូលដ្ឋានអំពីរបៀបដោះស្រាយជាមួយ AI និងការមិនចុះសម្រុងគ្នារបស់មនុស្ស យើងសូមដាក់ចេញនូវមូលដ្ឋានគ្រឹះបន្ថែមមួយចំនួនលើប្រធានបទសំខាន់ៗយ៉ាងជ្រាលជ្រៅ។ យើងត្រូវស្វែងយល់ដោយសង្ខេបអំពីក្រមសីលធម៌ AI និងជាពិសេសការមកដល់នៃ Machine Learning (ML) និង Deep Learning (DL)។
អ្នកប្រហែលជាដឹងយ៉ាងច្បាស់ថា សំឡេងខ្លាំងបំផុតមួយនាពេលបច្ចុប្បន្ននេះនៅក្នុងវិស័យ AI និងសូម្បីតែនៅខាងក្រៅវិស័យ AI មានការស្រែកឡើងសម្រាប់ភាពស្រដៀងគ្នានៃ Ethical AI កាន់តែខ្លាំង។ សូមក្រឡេកមើលថាតើវាមានន័យយ៉ាងណាក្នុងការសំដៅទៅលើ AI Ethics និង Ethical AI ។ លើសពីនេះ យើងនឹងស្វែងយល់ពីអត្ថន័យរបស់ខ្ញុំ នៅពេលដែលខ្ញុំនិយាយអំពី Machine Learning និង Deep Learning។
ផ្នែកជាក់លាក់មួយ ឬផ្នែកនៃក្រមសីលធម៌ AI ដែលកំពុងទទួលបានការចាប់អារម្មណ៍ពីប្រព័ន្ធផ្សព្វផ្សាយជាច្រើនរួមមាន AI ដែលបង្ហាញពីភាពលំអៀង និងភាពមិនស្មើគ្នា។ អ្នកប្រហែលជាដឹងហើយថា នៅពេលដែលយុគសម័យចុងក្រោយនៃ AI បានចាប់ផ្តើម មានការសាទរយ៉ាងខ្លាំងចំពោះអ្វីដែលមនុស្សមួយចំនួនហៅថា អាយអេសដើម្បីភាពល្អ. ជាអកុសល យើងចាប់ផ្តើមធ្វើសាក្សីដោយភាពរំភើបរីករាយ អាយអេសសម្រាប់អាក្រក់. ជាឧទាហរណ៍ ប្រព័ន្ធសម្គាល់មុខដែលមានមូលដ្ឋានលើ AI ជាច្រើនត្រូវបានបង្ហាញថាមានផ្ទុកនូវភាពលំអៀងជាតិសាសន៍ និងលម្អៀងយេនឌ័រ ដែលខ្ញុំបានពិភាក្សានៅ តំណភ្ជាប់នៅទីនេះ.
ខំប្រឹងទប់ទល់ អាយអេសសម្រាប់អាក្រក់ កំពុងដំណើរការយ៉ាងសកម្ម។ ក្រៅពីស្រែកថ្ងូរ ផ្នែកច្បាប់ ការខិតខំប្រឹងប្រែងក្នុងការទប់ទល់នឹងការប្រព្រឹត្តខុស វាក៏មានការជំរុញយ៉ាងសំខាន់ឆ្ពោះទៅរកការទទួលយកក្រមសីលធម៌ AI ដើម្បីកែតម្រូវភាពអាក្រក់របស់ AI ។ គំនិតនេះគឺថាយើងគួរតែទទួលយក និងគាំទ្រគោលការណ៍សីលធម៌ AI សំខាន់ៗសម្រាប់ការអភិវឌ្ឍន៍ និងការអនុវត្តរបស់ AI ដើម្បីធ្វើដូច្នេះដើម្បីកាត់បន្ថយ។ អាយអេសសម្រាប់អាក្រក់ ហើយក្នុងពេលដំណាលគ្នាផ្សព្វផ្សាយ និងផ្សព្វផ្សាយការពេញចិត្ត អាយអេសដើម្បីភាពល្អ.
តាមគំនិតដែលពាក់ព័ន្ធ ខ្ញុំជាអ្នកតស៊ូមតិក្នុងការព្យាយាមប្រើ AI ជាផ្នែកនៃដំណោះស្រាយចំពោះបញ្ហា AI ដោយប្រយុទ្ធនឹងភ្លើងក្នុងរបៀបនៃការគិតនោះ។ ជាឧទាហរណ៍ យើងអាចបញ្ចូលសមាសធាតុ Ethical AI ទៅក្នុងប្រព័ន្ធ AI ដែលនឹងត្រួតពិនិត្យពីរបៀបដែល AI ដែលនៅសល់កំពុងធ្វើ ហើយដូច្នេះវាអាចចាប់យកការខិតខំប្រឹងប្រែងរើសអើងណាមួយក្នុងពេលជាក់ស្តែង សូមមើលការពិភាក្សារបស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ. យើងក៏អាចមានប្រព័ន្ធ AI ដាច់ដោយឡែកដែលដើរតួជាប្រភេទនៃម៉ូនីទ័រ AI Ethics ។ ប្រព័ន្ធ AI ដើរតួជាអ្នកត្រួតពិនិត្យដើម្បីតាមដាន និងរកឃើញនៅពេលដែល AI មួយផ្សេងទៀតកំពុងចូលទៅក្នុងទីជ្រៅបំផុតដែលគ្មានសីលធម៌ (សូមមើលការវិភាគរបស់ខ្ញុំអំពីសមត្ថភាពបែបនេះនៅ តំណភ្ជាប់នៅទីនេះ).
បន្តិចទៀតនេះ ខ្ញុំនឹងចែករំលែកជាមួយអ្នកនូវគោលការណ៍ទូទៅមួយចំនួនដែលស្ថិតនៅក្រោមក្រមសីលធម៌ AI ។ មានបញ្ជីប្រភេទទាំងនេះជាច្រើនអណ្តែតនៅជុំវិញទីនេះ និងទីនោះ។ អ្នកអាចនិយាយបានថា មិនទាន់មានបញ្ជីឯកវចនៈនៃការអំពាវនាវជាសកល និងការស្របគ្នានៅឡើយ។ នោះជាដំណឹងអកុសល។ ដំណឹងល្អនោះគឺថា យ៉ាងហោចណាស់មានបញ្ជីសីលធម៌ AI ដែលអាចរកបានរួចរាល់ ហើយពួកគេមានទំនោរស្រដៀងគ្នា។ ទាំងអស់បានប្រាប់ នេះបង្ហាញថាតាមរយៈទម្រង់នៃការបញ្ចូលគ្នាប្រកបដោយហេតុផលនៃប្រភេទដែលយើងកំពុងស្វែងរកវិធីរបស់យើងឆ្ពោះទៅរកភាពសាមញ្ញទូទៅនៃអ្វីដែល AI Ethics មាន។
ជាដំបូង សូមនិយាយដោយសង្ខេបនូវសិក្ខាបទនៃក្រមសីលធម៌ AI រួមមួយចំនួន ដើម្បីបង្ហាញពីអ្វីដែលគួរតែជាការពិចារណាដ៏សំខាន់សម្រាប់នរណាម្នាក់ដែលបង្កើត បង្កើត ឬប្រើប្រាស់ AI ។
ជាឧទាហរណ៍ ដូចមានចែងដោយបុរីវ៉ាទីកង់ ទីក្រុងរ៉ូមអំពាវនាវឱ្យមានក្រមសីលធម៌ AI ហើយដូចដែលខ្ញុំបានគ្របដណ្តប់ស៊ីជម្រៅ តំណភ្ជាប់នៅទីនេះទាំងនេះគឺជាគោលការណ៍សីលធម៌ AI ចម្បងចំនួនប្រាំមួយដែលបានកំណត់របស់ពួកគេ៖
- តម្លាភាព: ជាគោលការណ៍ ប្រព័ន្ធ AI ត្រូវតែអាចពន្យល់បាន។
- បញ្ចូល៖ តម្រូវការរបស់មនុស្សគ្រប់រូបត្រូវតែយកមកពិចារណា ដើម្បីឲ្យមនុស្សគ្រប់រូបទទួលបានអត្ថប្រយោជន៍ ហើយបុគ្គលទាំងអស់អាចទទួលបានលក្ខខណ្ឌល្អបំផុតដើម្បីបង្ហាញពីខ្លួនឯង និងអភិវឌ្ឍ។
- ទំនួលខុសត្រូវ: អ្នកដែលរចនា និងដាក់ពង្រាយការប្រើប្រាស់ AI ត្រូវតែដំណើរការដោយការទទួលខុសត្រូវ និងតម្លាភាព
- មិនលំអៀង៖ កុំបង្កើត ឬធ្វើសកម្មភាពដោយលំអៀង ការពារភាពត្រឹមត្រូវ និងសេចក្តីថ្លៃថ្នូររបស់មនុស្ស
- ភាពជឿជាក់៖ ប្រព័ន្ធ AI ត្រូវតែអាចដំណើរការដោយភាពជឿជាក់
- សុវត្ថិភាព និងឯកជនភាព៖ ប្រព័ន្ធ AI ត្រូវតែដំណើរការដោយសុវត្ថិភាព និងគោរពភាពឯកជនរបស់អ្នកប្រើប្រាស់។
ដូចដែលបានបញ្ជាក់ដោយក្រសួងការពារជាតិសហរដ្ឋអាមេរិក (DoD) នៅក្នុងរបស់ពួកគេ។ គោលការណ៍សីលធម៌សម្រាប់ការប្រើប្រាស់បញ្ញាសិប្បនិម្មិត ហើយដូចដែលខ្ញុំបានគ្របដណ្តប់ស៊ីជម្រៅ តំណភ្ជាប់នៅទីនេះនេះគឺជាគោលការណ៍សីលធម៌ AI ចម្បងចំនួនប្រាំមួយរបស់ពួកគេ៖
- ទទួលខុសត្រូវ: បុគ្គលិក DoD នឹងអនុវត្តកម្រិតនៃការវិនិច្ឆ័យ និងការថែទាំសមស្រប ខណៈពេលដែលនៅតែទទួលខុសត្រូវចំពោះការអភិវឌ្ឍន៍ ការដាក់ពង្រាយ និងការប្រើប្រាស់សមត្ថភាព AI ។
- សមភាព៖ នាយកដ្ឋាននឹងចាត់វិធានការដោយចេតនា ដើម្បីកាត់បន្ថយភាពលំអៀងដោយអចេតនានៅក្នុងសមត្ថភាព AI ។
- អាចតាមដានបាន៖ សមត្ថភាព AI របស់នាយកដ្ឋាននឹងត្រូវបានបង្កើតឡើង និងដាក់ឱ្យប្រើប្រាស់ ដែលបុគ្គលិកពាក់ព័ន្ធមានការយល់ដឹងសមស្របអំពីបច្ចេកវិទ្យា ដំណើរការអភិវឌ្ឍន៍ និងវិធីសាស្រ្តប្រតិបត្តិការដែលអនុវត្តចំពោះសមត្ថភាព AI រួមទាំងវិធីសាស្រ្តតម្លាភាព និងសវនកម្ម ប្រភពទិន្នន័យ និងនីតិវិធីរចនា និងឯកសារ។
- អាចជឿទុកចិត្តបាន: សមត្ថភាព AI របស់នាយកដ្ឋាននឹងមានការប្រើប្រាស់ច្បាស់លាស់ និងច្បាស់លាស់ ហើយសុវត្ថិភាព សុវត្ថិភាព និងប្រសិទ្ធភាពនៃសមត្ថភាពទាំងនោះនឹងត្រូវឆ្លងកាត់ការធ្វើតេស្ត និងការធានានៅក្នុងការប្រើប្រាស់ដែលបានកំណត់នៅទូទាំងវដ្តជីវិតរបស់ពួកគេ។
- អាចគ្រប់គ្រងបាន៖ នាយកដ្ឋាននឹងរចនា និងវិស្វកម្មសមត្ថភាព AI ដើម្បីបំពេញមុខងារដែលបានគ្រោងទុក ខណៈពេលដែលមានសមត្ថភាពក្នុងការរកឃើញ និងជៀសវាងផលវិបាកដែលមិនចង់បាន និងសមត្ថភាពក្នុងការផ្តាច់ ឬបិទប្រព័ន្ធដែលបានដាក់ពង្រាយ ដែលបង្ហាញពីអាកប្បកិរិយាអចេតនា។
ខ្ញុំក៏បានពិភាក្សាផងដែរអំពីការវិភាគសមូហភាពផ្សេងៗនៃគោលការណ៍សីលធម៌ AI រួមទាំងការគ្របដណ្តប់លើសំណុំដែលបង្កើតឡើងដោយអ្នកស្រាវជ្រាវដែលបានពិនិត្យ និងបង្រួមខ្លឹមសារនៃគោលការណ៍សីលធម៌ AI ជាតិ និងអន្តរជាតិជាច្រើននៅក្នុងក្រដាសដែលមានចំណងជើងថា "ទេសភាពសកលនៃគោលការណ៍ណែនាំសីលធម៌ AI" (បោះពុម្ពផ្សាយ ក្នុង ធម្មជាតិ) ហើយការគ្របដណ្តប់របស់ខ្ញុំរុករកនៅ តំណភ្ជាប់នៅទីនេះដែលនាំទៅដល់បញ្ជីគន្លឹះនេះ៖
- តម្លាភាព
- យុត្តិធម៌ និងយុត្តិធម៌
- ភាពមិនអាក្រក់
- ការទទួលខុសត្រូវ
- ភាពឯកជន
- អត្ថប្រយោជន៍
- សេរីភាព និងស្វ័យភាព
- ការជឿទុកចិត្ត
- និរន្តរភាព
- សេចក្តីថ្លៃថ្នូរ
- សាមគ្គីភាព
ដូចដែលអ្នកអាចទាយដោយផ្ទាល់ ការព្យាយាមកំណត់ចំណុចជាក់លាក់នៃគោលការណ៍ទាំងនេះអាចជារឿងពិបាកធ្វើណាស់។ កាន់តែពិសេសជាងនេះទៅទៀត ការខិតខំប្រឹងប្រែងដើម្បីបង្វែរគោលការណ៍ដ៏ទូលំទូលាយទាំងនោះទៅជាអ្វីដែលជាក់ស្តែង និងលម្អិតគ្រប់គ្រាន់ដើម្បីប្រើប្រាស់នៅពេលបង្កើតប្រព័ន្ធ AI ក៏ជាចំណុចពិបាកមួយក្នុងការបំបែក។ វាជាការងាយស្រួលក្នុងការធ្វើការគ្រវីដៃខ្លះៗអំពីអ្វីដែល AI Ethics សិក្ខាបទគឺ និងរបៀបដែលពួកគេគួរត្រូវបានសង្កេតជាទូទៅ ខណៈពេលដែលវាជាស្ថានភាពស្មុគស្មាញជាងនៅក្នុង AI coding ដែលត្រូវតែជាកៅស៊ូពិតប្រាកដដែលជួបនឹងផ្លូវ។
គោលការណ៍ក្រមសីលធម៌ AI នឹងត្រូវប្រើប្រាស់ដោយអ្នកអភិវឌ្ឍន៍ AI រួមជាមួយនឹងអ្នកដែលគ្រប់គ្រងកិច្ចខិតខំប្រឹងប្រែងក្នុងការអភិវឌ្ឍន៍ AI និងសូម្បីតែអ្នកដែលនៅទីបំផុតអនុវត្ត និងថែទាំប្រព័ន្ធ AI ។ ភាគីពាក់ព័ន្ធទាំងអស់នៅទូទាំងវដ្តជីវិត AI នៃការអភិវឌ្ឍន៍ និងការប្រើប្រាស់ត្រូវបានពិចារណាក្នុងវិសាលភាពនៃការគោរពតាមបទដ្ឋានដែលត្រូវបានបង្កើតឡើងនៃ Ethical AI ។ នេះគឺជាការគូសបញ្ជាក់ដ៏សំខាន់មួយចាប់តាំងពីការសន្មត់ធម្មតាគឺថា "មានតែអ្នកសរសេរកូដ" ឬអ្នកដែលកម្មវិធី AI ប៉ុណ្ណោះដែលត្រូវប្រកាន់ខ្ជាប់នូវគោលគំនិតសីលធម៌របស់ AI ។ ដូចដែលបានបញ្ជាក់រួចមកហើយ វាត្រូវការភូមិមួយដើម្បីបង្កើត និងអនុវត្ត AI ហើយភូមិទាំងមូលត្រូវតែគោរព និងគោរពតាមសិក្ខាបទ AI ។
យើងក៏ត្រូវប្រាកដថាយើងនៅលើទំព័រដូចគ្នាអំពីលក្ខណៈនៃ AI នាពេលបច្ចុប្បន្ននេះ។
មិនមាន AI ណាមួយដែលប្រកបដោយមនោសញ្ចេតនាទេ។ យើងមិនមាននេះទេ។ យើងមិនដឹងថាតើ AI អាចនឹងកើតឡើងឬអត់នោះទេ។ គ្មាននរណាម្នាក់អាចទស្សន៍ទាយបានច្បាស់ថា តើយើងនឹងសម្រេចបាន AI អារម្មណ៍ ឬថាតើ AI អារម្មណ៍នឹងកើតឡើងដោយអព្ភូតហេតុដោយឯកឯងក្នុងទម្រង់នៃ supernova នៃការយល់ដឹងតាមការគណនា (ជាទូទៅគេហៅថាឯកវចនៈ សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ).
ប្រភេទនៃ AI ដែលខ្ញុំកំពុងផ្តោតលើមាន AI ដែលមិនមានអារម្មណ៍ដែលយើងមានសព្វថ្ងៃនេះ។ ប្រសិនបើយើងចង់ស្មានទុកជាមុន អ្នកផ្ញើ AI ការពិភាក្សានេះអាចទៅក្នុងទិសដៅខុសគ្នាយ៉ាងខ្លាំង។ AI ដែលមានអារម្មណ៍ថានឹងមានគុណភាពមនុស្ស។ អ្នកនឹងត្រូវពិចារណាថា AI អារម្មណ៍គឺស្មើនឹងការយល់ដឹងរបស់មនុស្ស។ ជាងនេះទៅទៀត ចាប់តាំងពីមានការប៉ាន់ស្មានខ្លះថា យើងប្រហែលជាមាន AI ដ៏វៃឆ្លាតទំនើប ដូច្នេះហើយទើបអាចសន្និដ្ឋានបានថា AI បែបនេះអាចមានភាពវៃឆ្លាតជាងមនុស្សទៅទៀត (សម្រាប់ការរុករករបស់ខ្ញុំនូវ AI ឆ្លាតវៃទំនើបជាលទ្ធភាព សូមមើល ការគ្របដណ្តប់នៅទីនេះ).
ចូរយើងរក្សាអ្វីៗឱ្យកាន់តែជ្រៅនៅលើផែនដី ហើយពិចារណាអំពី AI ដែលមិនងាយយល់នាពេលបច្ចុប្បន្ននេះ។
ត្រូវដឹងថា AI នាពេលបច្ចុប្បន្ននេះ មិនអាច "គិត" តាមរបៀបណាមួយបានដូចការគិតរបស់មនុស្សនោះទេ។ នៅពេលអ្នកប្រាស្រ័យទាក់ទងជាមួយ Alexa ឬ Siri សមត្ថភាពសន្ទនាអាចហាក់ដូចជាស្រដៀងនឹងសមត្ថភាពរបស់មនុស្ស ប៉ុន្តែការពិតគឺថាវាមានលក្ខណៈគណនា និងខ្វះការយល់ដឹងរបស់មនុស្ស។ យុគសម័យចុងក្រោយបង្អស់របស់ AI បានប្រើប្រាស់យ៉ាងទូលំទូលាយនូវ Machine Learning (ML) និង Deep Learning (DL) ដែលមានឥទ្ធិពលលើការផ្គូផ្គងលំនាំគណនា។ នេះបាននាំឱ្យមានប្រព័ន្ធ AI ដែលមានរូបរាងដូចមនុស្ស។ ទន្ទឹមនឹងនេះដែរ សព្វថ្ងៃនេះមិនមាន AI ណាមួយដែលមានលក្ខណៈសមហេតុសមផលទេ ហើយក៏មិនមានការងឿងឆ្ងល់នៃការយល់ដឹងនៃការគិតដ៏រឹងមាំរបស់មនុស្សដែរ។
ML/DL គឺជាទម្រង់នៃការផ្គូផ្គងលំនាំគណនា។ វិធីសាស្រ្តធម្មតាគឺអ្នកប្រមូលផ្តុំទិន្នន័យអំពីកិច្ចការធ្វើការសម្រេចចិត្ត។ អ្នកបញ្ចូលទិន្នន័យទៅក្នុងម៉ូដែលកុំព្យូទ័រ ML/DL ។ គំរូទាំងនោះស្វែងរកលំនាំគណិតវិទ្យា។ បន្ទាប់ពីស្វែងរកគំរូបែបនេះ ប្រសិនបើរកឃើញនោះ ប្រព័ន្ធ AI នឹងប្រើលំនាំទាំងនោះនៅពេលជួបទិន្នន័យថ្មី។ នៅពេលបង្ហាញទិន្នន័យថ្មី គំរូដែលផ្អែកលើ "ទិន្នន័យចាស់" ឬទិន្នន័យប្រវត្តិសាស្រ្តត្រូវបានអនុវត្តដើម្បីបង្ហាញការសម្រេចចិត្តបច្ចុប្បន្ន។
ខ្ញុំគិតថាអ្នកអាចទាយថាតើនេះកំពុងទៅណា។ ប្រសិនបើមនុស្សដែលបានបង្កើតគំរូតាមការសម្រេចចិត្តបានរួមបញ្ចូលការលំអៀងដែលមិនឆ្អែតឆ្អន់ នោះការខុសឆ្គងគឺថាទិន្នន័យបានឆ្លុះបញ្ចាំងពីចំណុចនេះតាមវិធីស្រាលៗ ប៉ុន្តែសំខាន់។ ការផ្គូផ្គងគំរូការសិក្សាតាមម៉ាស៊ីន ឬការរៀនជ្រៅនឹងព្យាយាមធ្វើត្រាប់តាមទិន្នន័យតាមគណិតវិទ្យា។ មិនមានភាពដូចគ្នានៃសុភវិនិច្ឆ័យ ឬទិដ្ឋភាពមនោសញ្ចេតនាផ្សេងទៀតនៃការបង្កើតគំរូដែលបង្កើតដោយ AI ក្នុងមួយ។
ជាងនេះទៅទៀត អ្នកអភិវឌ្ឍន៍ AI ប្រហែលជាមិនដឹងពីអ្វីដែលកំពុងកើតឡើងនោះទេ។ គណិតវិទ្យា arcane នៅក្នុង ML/DL អាចធ្វើឱ្យវាពិបាកក្នុងការបំបាត់ភាពលំអៀងដែលលាក់នៅពេលនេះ។ អ្នកនឹងសង្ឃឹមយ៉ាងត្រឹមត្រូវ ហើយរំពឹងថាអ្នកអភិវឌ្ឍន៍ AI នឹងសាកល្បងសម្រាប់ភាពលំអៀងដែលអាចកប់បាន ទោះបីជាវាពិបាកជាងវាក៏ដោយ។ ឱកាសដ៏រឹងមាំមួយមានដែលថា ទោះបីជាមានការធ្វើតេស្តយ៉ាងទូលំទូលាយថានឹងមានភាពលំអៀងនៅតែបង្កប់នៅក្នុងគំរូដែលត្រូវគ្នានឹងគំរូនៃ ML/DL ក៏ដោយ។
អ្នកអាចប្រើសុភាសិតដ៏ល្បីឬមិនល្អខ្លះនៃការចោលសំរាមក្នុងធុងសំរាម។ រឿងនោះគឺថា នេះគឺស្រដៀងទៅនឹងភាពលំអៀងដែលបញ្ចូលទៅក្នុង insidiously ដូចជាភាពលំអៀងដែលលិចចូលទៅក្នុង AI ។ ក្បួនដោះស្រាយការសម្រេចចិត្ត (ADM) នៃ AI axiomatically ក្លាយជាបន្ទុកដោយភាពមិនស្មើគ្នា។
មិនល្អ។
ចូរយើងត្រលប់ទៅផ្តោតលើការខ្វែងគំនិតគ្នារវាង AI និងមនុស្ស។
ខ្ញុំធ្លាប់បានចង្អុលបង្ហាញថា ទាំងនេះគឺជាយុទ្ធសាស្ត្រដោះស្រាយការខ្វែងគំនិតគ្នាមួយចំនួន៖
- AI និងមនុស្សរួមគ្នាធ្វើការចេញទៅក្រៅ (មិត្តភាពឬអត់)
- មនុស្សឈ្នះលើ AI តាមលំនាំដើម
- តាមលំនាំដើម AI យកឈ្នះលើមនុស្ស
- ដំណោះស្រាយថេរដែលបានកំណត់ទុកជាមុនមួយចំនួនទៀត ឈ្នះតាមលំនាំដើម
- មនុស្សភាគីទីបីត្រូវបានបញ្ជូលគ្នា ហើយការបង្ហាញរបស់ពួកគេមានឥទ្ធិពលលើភាគី
- AI ភាគីទីបីត្រូវបានបញ្ជូលគ្នា ហើយការចង្អុលបង្ហាញរបស់វាមានលើភាគី
- មនុស្សភាគីទីបីជំនួសមនុស្សដែលមានស្រាប់ អ្វីៗដំណើរការជាថ្មី
- AI ភាគីទីបីជំនួស AI ដែលមានស្រាប់ អ្វីៗដំណើរការជាថ្មី
- មនុស្សភាគីទីបីជំនួស AI ដែលមានស្រាប់ អ្វីៗដំណើរការជាថ្មី (ឥឡូវនេះពីមនុស្សទៅមនុស្ស)
- AI ភាគីទីបីជំនួសមនុស្សដែលមានស្រាប់ អ្វីៗដំណើរការជាថ្មី (ឥឡូវ AI-to-AI)
- ផ្សេងទៀត
ដល់ពេលត្រូវស្រាយកញ្ចប់ទាំងនេះហើយ។
ជាដំបូង សូមពិចារណាថា នេះគឺអំពីទាំងអស់។ ដែលមានជំនាញវិជ្ជាជីវៈ ការមិនយល់ស្រប។
ការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈត្រូវបានកំណត់ថាជាការខ្វែងគំនិតគ្នាដែលទាក់ទងនឹងកិច្ចការដែលទាក់ទងនឹងការងារ។
ជាឧទាហរណ៍ ការខ្វែងគំនិតគ្នាដែលកើតឡើងរវាងអ្នកបើកបរនិងអ្នកបើកយន្តហោះអំពីថាតើត្រូវបន្តការហោះហើរដែលកំពុងប្រឈមមុខនឹងព្យុះអាចត្រូវបានគេដាក់ស្លាកថាជាការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈ។ ផ្ទុយទៅវិញ ការខ្វែងគំនិតគ្នាយ៉ាងខ្លាំងលើម៉ាកកាហ្វេដែលអ្នកបើកយន្តហោះតស៊ូមតិសម្រាប់ធៀបនឹងម៉ាកដែលអ្នកបើកយន្តហោះចូលចិត្ត ត្រូវបានគេចាត់ថ្នាក់យ៉ាងងាយស្រួលថាជាការខ្វែងគំនិតគ្នាដែលមិនមានលក្ខណៈវិជ្ជាជីវៈនៅក្នុងបរិបទពិសេសនេះ។
ជាការពិតណាស់ ប្រសិនបើការខ្វែងគំនិតគ្នាមិនមែនជាវិជ្ជាជីវៈ ឈានទៅដល់ការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈនោះ ទីបំផុតយើងអាចចាប់អារម្មណ៍លើការខ្វែងគំនិតគ្នាមិនមែនវិជ្ជាជីវៈដែលជាប្រភពសន្មត ឬបញ្ឆេះសម្រាប់អ្នកដែលមានជំនាញវិជ្ជាជីវៈ។ ស្រមៃថាអ្នកបើកយន្តហោះ និងអ្នកបើកយន្តហោះជជែកគ្នាយ៉ាងជូរចត់អំពីកាហ្វេម៉ាកណាល្អបំផុត ដែលបន្ទាប់មកគួរឱ្យសោកស្ដាយហូរចូលទៅក្នុងក្តីបារម្ភជាក់លាក់នៃការហោះហើរ (ផាន!) ដូចជាថាតើត្រូវហោះឬអត់។
ទីពីរ យើងត្រូវចងចាំពីទំហំនៃវិវាទវិជ្ជាជីវៈ។
ប្រហែលជាអ្នកបើកយន្តហោះ និងអ្នកបើកយន្តហោះ ឬមានការខ្វែងគំនិតគ្នាបន្តិចបន្តួចអំពីដំណើរការហោះហើរ។ ពួកគេមិនស្ថិតនៅក្បាលអ្នកកាប់ឈើទេ ហើយគ្រាន់តែសញ្ជឹងគិតពីគុណសម្បត្តិ និងគុណវិបត្តិថាតើត្រូវហោះឡើងឬអត់។ នេះមិនមែនជាទំហំ ឬទំហំនៃការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈ ដែលយើងកំពុងពិចារណាជាធម្មតានៅទីនេះទេ។ រឿងនេះគឺថា វាអាចថាការខ្វែងគំនិតគ្នាខាងវិជ្ជាជីវៈគឺជាអន្តរកាល ហើយភាគីទាំងពីរធ្វើការដោះស្រាយយ៉ាងស្និទ្ធស្នាល ឬយ៉ាងហោចណាស់ក៏ទាន់ពេលវេលា។ ជាទូទៅ ការផ្តោតទៅលើការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈក្នុងវិសាលភាពគឺជាបញ្ហាដែលមើលទៅហាក់ដូចជាមិនអាចទាក់ទាញបាន ហើយភាគីទាំងពីរនៅតែប្រកាន់ខ្ជាប់ខ្វែងគំនិតគ្នាយ៉ាងខ្ជាប់ខ្ជួន។
ទីបី ជាធម្មតាត្រូវតែមានអ្វីមួយដែលធ្ងន់ធ្ងរនៅលើបន្ទាត់សម្រាប់គោលការណ៍ណែនាំទាំងនេះចូលជាធរមាន។
ការជ្រើសរើសយកការហោះហើរ ឬមិនហោះហើរ គឺជាការសម្រេចចិត្តបែបជីវិត ឬសេចក្តីស្លាប់ ប្រសិនបើការហោះហើរមានហានិភ័យដោយសារព្យុះ ឬយន្តហោះត្រូវបានចាត់ទុកថាមិនបានរៀបចំពេញលេញសម្រាប់ការធ្វើដំណើរបែបនេះ។ នេះគឺជាអាជីវកម្មធ្ងន់ធ្ងរ។ យើងនៅតែអាចអនុវត្តគោលការណ៍ណែនាំចំពោះការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈដែលមិនសូវមានផលប៉ះពាល់ ទោះបីជាវាអាចមានការរំខានច្រើនជាងតម្លៃក៏ដោយ។
មិនអីទេ ការពិចារណារបស់យើងគឺ៖
- ការខ្វែងគំនិតគ្នានេះគឺផ្តោតលើវិជ្ជាជីវៈជាជាងលើអ្វីដែលមិនមានវិជ្ជាជីវៈ
- ការខ្វែងគំនិតគ្នាមានលក្ខណៈជានិរន្តរភាព និងមិនមែនគ្រាន់តែជាអន្តរកាល ឬអាចដោះស្រាយបានយ៉ាងងាយស្រួលនោះទេ។
- ការខ្វែងគំនិតគ្នានេះបានទាយទុកជាមុននូវផលវិបាកធ្ងន់ធ្ងរ ហើយជាធម្មតាមានផលប៉ះពាល់
- ភាគីទាំងនោះស្ថិតនៅក្នុងការកាប់ឈើ ហើយពួកគេហាក់ដូចជាមិនអាចទាក់ទាញបាន។
ឥឡូវនេះ សូមពិនិត្យមើលឱ្យបានដិតដល់នូវគោលការណ៍ណែនាំ ឬវិធីសាស្រ្តនីមួយៗដែលបានស្នើរបស់ខ្ញុំ ទាក់ទងនឹងរបៀបដោះស្រាយការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈបែបនេះ។
AI និងមនុស្សរួមគ្នាធ្វើការចេញទៅក្រៅ (មិត្តភាពឬអត់)
ខ្ញុំចាប់ផ្តើមបញ្ជីជាមួយនឹងលទ្ធភាពត្រង់ថា AI និងមនុស្សក្នុងរង្វង់អាចដោះស្រាយការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈក្នុងចំណោមពួកគេ។ វាហាក់ដូចជាថា ប្រហែលជាឧទាហរណ៍នៃមនុស្សពីរនាក់ ពីឡុត និង ពីឡុត បង្ហាញពីកាលៈទេសៈបែបនេះ។ ពួកគេបានសម្រេចចិត្តត្រឡប់ទៅស្ថានីយវិញ ហើយទៅតាមផ្លូវដាច់ដោយឡែកពីគេ។ វាអាចថាប្រព័ន្ធ AI និងមនុស្សអាចរកវិធីដោះស្រាយដែលជាទូទៅពេញចិត្តសម្រាប់ភាគីទាំងពីរ ហើយបញ្ហាត្រូវបានបញ្ចប់យ៉ាងពេញចិត្ត។
មនុស្សឈ្នះលើ AI តាមលំនាំដើម
នៅពេលដំឡើង AI យើងអាចរៀបចំច្បាប់មួយដែលនិយាយថាមនុស្សក្នុងរង្វង់នឹងតែងតែមានជ័យជំនះគ្រប់ពេលដែលមានការខ្វែងគំនិតគ្នាក្នុងវិជ្ជាជីវៈកើតឡើង។ នេះនឹងជាលំនាំដើមដែលបានសរសេរកូដច្បាស់លាស់។ យើងក៏អាចអនុញ្ញាតឲ្យមានការបដិសេធក្នុងទម្រង់មួយចំនួនផងដែរ ក្នុងករណីទោះបីជាច្បាប់ឈរលើមនុស្សនោះក៏ដោយ។
តាមលំនាំដើម AI យកឈ្នះលើមនុស្ស
នៅពេលដំឡើង AI យើងអាចរៀបចំច្បាប់មួយដែលនិយាយថា AI តែងតែឈ្នះលើមនុស្សក្នុងរង្វង់ នៅពេលណាដែលមានការខ្វែងគំនិតខាងវិជ្ជាជីវៈកើតឡើង។ នេះគឺជាលំនាំដើមដែលបានសរសេរកូដច្បាស់លាស់។ យើងក៏អាចអនុញ្ញាតឱ្យមានទម្រង់នៃការបដិសេធមួយចំនួនផងដែរ ក្នុងករណី ទោះបីជាច្បាប់ឈរនោះ AI ឈ្នះក៏ដោយ។
ដំណោះស្រាយថេរដែលបានកំណត់ទុកជាមុនមួយចំនួនទៀត ឈ្នះតាមលំនាំដើម
នៅពេលដំឡើង AI យើងអាចរៀបចំច្បាប់ដែលនិយាយថាដំណោះស្រាយថេរដែលបានកំណត់ទុកជាមុនមួយចំនួនផ្សេងទៀតនឹងឈ្នះរាល់ពេលដែលការមិនចុះសម្រុងនឹងវិជ្ជាជីវៈកើតឡើងជាមួយមនុស្សក្នុងរង្វង់។ មនុស្សក្នុងរង្វង់មិនជោគជ័យតាមលំនាំដើមទេ។ តាមលំនាំដើម AI មិនអាចយកឈ្នះបានទេ។ មានដំណោះស្រាយដែលបានកំណត់ទុកជាមុនមួយចំនួនទៀត។ ជាឧទាហរណ៍ ប្រហែលជាមានការបោះកាក់ដែលនឹងប្រើដើម្បីសម្រេចថាតើភាគីទាំងពីរណាមួយត្រូវបានចាត់ទុកថាជាផ្លូវត្រូវដែលត្រូវដើរ។ នោះច្បាស់ជាហាក់ដូចជាបំពាន។ ដូច្នេះ វិធីសាស្រ្តឧទាហរណ៍មួយទៀត គឺថា ច្បាប់ឯកទេសចាប់ផ្តើមដែលគណនាតម្លៃដោយផ្អែកលើធាតុចូលពីភាគីទាំងពីរ ហើយមកដល់លទ្ធផលជាអ្នកបំបែក។
មនុស្សភាគីទីបីត្រូវបានបញ្ជូលគ្នា ហើយការបង្ហាញរបស់ពួកគេមានឥទ្ធិពលលើភាគី
នៅពេលមានការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈ ច្បាប់មួយអាចថាភាគីទីបីដែលជាមនុស្សត្រូវបានហៅ និងបញ្ចូលទៅក្នុងការកំណត់ដើម្បីធ្វើការសម្រេចចិត្តអំពីការដោះស្រាយការខ្វែងគំនិតគ្នា។ AI ត្រូវបានគេដាក់កម្មវិធីដើម្បីអនុលោមតាមអ្វីដែលមនុស្សភាគីទីបីសម្រេច។ មនុស្សដែលនៅក្នុងរង្វង់មនុស្សរួចហើយ ត្រូវបានគេណែនាំជាមុនថា បើមានស្ថានការណ៍បែបនេះកើតឡើង គេក៏ត្រូវពន្យារចំពោះមនុស្សភាគីទីបីដែរ។ ដោយឡែក អ្នកទំនងជាអាចប្រមើលមើលថា មនុស្សក្នុងរង្វង់អាចមានការខឹងសម្បារចំពោះការទទួលយកអ្វីក៏ដោយដែលមនុស្សភាគីទីបីសម្រេចចិត្ត ប្រសិនបើការសម្រេចចិត្តមិនយល់ស្របនឹងឥរិយាបថរបស់មនុស្សក្នុងរង្វង់។
AI ភាគីទីបីត្រូវបានបញ្ជូលគ្នា ហើយការចង្អុលបង្ហាញរបស់វាមានលើភាគី
នៅពេលមានការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈ ច្បាប់មួយអាចជាភាគីទីបីដែលជាប្រព័ន្ធ AI ផ្សេងគ្នាត្រូវបានហៅ និងបញ្ចូលទៅក្នុងការកំណត់ដើម្បីធ្វើការសម្រេចចិត្តអំពីការដោះស្រាយការខ្វែងគំនិតគ្នា។ AI ដើមត្រូវបានគេដាក់កម្មវិធីដើម្បីអនុលោមតាមអ្វីដែល AI ភាគីទីបីសម្រេច។ មនុស្សនៅក្នុងរង្វង់មនុស្សរួចហើយត្រូវបានណែនាំជាមុនថាប្រសិនបើស្ថានភាពបែបនេះកើតឡើងពួកគេក៏ត្រូវពន្យាពេលទៅភាគីទីបី AI ។ ដោយឡែក អ្នកទំនងជាអាចទស្សទាយបានថា មនុស្សនៅក្នុងរង្វង់អាចមានការខឹងសម្បារចំពោះការទទួលយកអ្វីដែល AI ភាគីទីបីសម្រេចចិត្ត ប្រសិនបើការសម្រេចចិត្តមិនយល់ស្របនឹងឥរិយាបថរបស់មនុស្សក្នុងរង្វង់។
មនុស្សភាគីទីបីជំនួសមនុស្សដែលមានស្រាប់ អ្វីៗដំណើរការជាថ្មី
នៅពេលមានការខ្វែងគំនិតគ្នាខាងវិជ្ជាជីវៈ មនុស្សនៅក្នុងរង្វង់ត្រូវបានជំនួសដោយភាគីទីបីដែលជាមនុស្ស ហើយដែលក្លាយជាមនុស្សនៅក្នុងរង្វង់ចាប់ពីពេលនេះតទៅ។ មនុស្សដែលជាមនុស្សក្នុងរង្វង់ដើមសម្រាប់កិច្ចការនេះមិនត្រូវបានចាត់ទុកជាផ្នែកនៃកិច្ចការដែលនៅក្នុងដៃទៀតទេ។ វាគឺជាទិដ្ឋភាពបើកចំហចំពោះអ្វីដែលកើតឡើងខុសពីមនុស្សនៅក្នុងរង្វង់ឥឡូវនេះ ប៉ុន្តែយើងកំពុងនិយាយថា ប្រាកដណាស់ថាពួកគេលែងមានតួនាទីបន្តនៅក្នុងកិច្ចការការងារទៀតហើយ។
AI ភាគីទីបីជំនួស AI ដែលមានស្រាប់ អ្វីៗដំណើរការជាថ្មី
នៅពេលមានការខ្វែងគំនិតគ្នាពីវិជ្ជាជីវៈ AI ត្រូវបានជំនួសដោយ AI ភាគីទីបី ហើយនោះនឹងក្លាយទៅជា AI ដែលត្រូវបានប្រើប្រាស់សម្រាប់កិច្ចការការងារនៅនឹងដៃ។ AI ដែលត្រូវបានប្រើដំបូងសម្រាប់កិច្ចការមិនត្រូវបានចាត់ទុកជាផ្នែកនៃកិច្ចការនៅក្នុងដៃទៀតទេ។ វាគឺជាទិដ្ឋភាពបើកចំហចំពោះអ្វីដែលកើតឡើងជាមួយ AI ដែលត្រូវបានជំនួសឥឡូវនេះ ប៉ុន្តែយើងកំពុងនិយាយថា ប្រាកដណាស់ AI លែងមានតួនាទីបន្តនៅក្នុងកិច្ចការការងារទៀតហើយ។
មនុស្សភាគីទីបីជំនួស AI ដែលមានស្រាប់ អ្វីៗដំណើរការជាថ្មី (ឥឡូវនេះពីមនុស្សទៅមនុស្ស)
នៅពេលមានការខ្វែងគំនិតគ្នាខាងវិជ្ជាជីវៈ AI ត្រូវបានជំនួសដោយមនុស្សភាគីទីបី ដែលមនុស្សនោះឥឡូវនេះក្លាយជាភាគីសហក្រុមដែលត្រូវបានចាត់ទុកថានឹងត្រូវប្រើសម្រាប់កិច្ចការការងារនៅនឹងដៃ។ AI ដែលត្រូវបានប្រើដំបូងសម្រាប់កិច្ចការមិនត្រូវបានចាត់ទុកជាផ្នែកនៃកិច្ចការនៅក្នុងដៃទៀតទេ។ វាគឺជាទិដ្ឋភាពបើកចំហរចំពោះអ្វីដែលកើតឡើងជាមួយ AI ដែលបានជំនួសឥឡូវនេះ ប៉ុន្តែយើងកំពុងនិយាយថា ប្រាកដណាស់ថា AI លែងមានតួនាទីបន្តនៅក្នុងកិច្ចការការងារទៀតហើយ។ សរុបមក ឥឡូវនេះ វាក្លាយជាកិច្ចការពីរភាគីដែលធ្វើឡើងពីមនុស្សទៅមនុស្ស។
AI ភាគីទីបីជំនួសមនុស្សដែលមានស្រាប់ អ្វីៗដំណើរការជាថ្មី (ឥឡូវ AI-to-AI)
នៅពេលមានការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈ មនុស្សនៅក្នុងរង្វង់ត្រូវបានជំនួសដោយ AI ភាគីទីបី ហើយ AI នេះនឹងក្លាយជាការបំពេញបន្ថែមសម្រាប់មនុស្សនៅក្នុងរង្វង់មុននេះ។ មនុស្សដែលជាមនុស្សក្នុងរង្វង់ដើមសម្រាប់កិច្ចការនេះមិនត្រូវបានចាត់ទុកជាផ្នែកនៃកិច្ចការដែលនៅក្នុងដៃទៀតទេ។ វាគឺជាទិដ្ឋភាពបើកចំហចំពោះអ្វីដែលកើតឡើងខុសពីមនុស្សនៅក្នុងរង្វង់ឥឡូវនេះ ប៉ុន្តែយើងកំពុងនិយាយថា ប្រាកដណាស់ថាពួកគេលែងមានតួនាទីបន្តនៅក្នុងកិច្ចការការងារទៀតហើយ។ សរុបមក ឥឡូវនេះ វាក្លាយជា AI-to-AI ពីរភាគី ដើម្បីបំពេញភារកិច្ច។
ផ្សេងទៀត
បំរែបំរួលផ្សេងទៀតអាចត្រូវបានបង្កើតឡើងដើម្បីទប់ទល់នឹងការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈ ប៉ុន្តែយើងបានគ្របដណ្តប់នៅទីនេះនូវគន្លឹះមួយចំនួន។
តើយើងត្រូវធ្វើដូចម្តេចដើម្បីសម្រេចចិត្តថាវិធីសាស្ត្រទាំងនោះមួយណានឹងត្រូវសម្រាប់ស្ថានភាពមួយ?
បញ្ហាជាច្រើនចូលទៅក្នុងការជ្រើសរើសបែបនេះ។ មានការពិចារណាផ្នែកបច្ចេកវិទ្យា។ មានការពិចារណាលើអាជីវកម្ម។ មានការពិចារណាផ្នែកច្បាប់ និងក្រមសីលធម៌។
ដល់កម្រិតខ្លះ នោះហើយជាមូលហេតុដែល AI Ethics និង Ethical AI គឺជាប្រធានបទសំខាន់បែបនេះ។ សិក្ខាបទនៃក្រមសីលធម៌ AI ធ្វើឱ្យយើងមានការប្រុងប្រយ័ត្ន។ ពេលខ្លះអ្នកបច្ចេកវិទ្យា AI អាចក្លាយជាមនុស្សចាប់អារម្មណ៍លើបច្ចេកវិទ្យា ជាពិសេសការបង្កើនប្រសិទ្ធភាពនៃបច្ចេកវិទ្យាខ្ពស់។ ពួកគេមិនចាំបាច់ពិចារណាពីផលប៉ះពាល់សង្គមធំជាងនេះទេ។ ការមានផ្នត់គំនិត AI Ethics និងការធ្វើដូច្នេះរួមបញ្ចូលជាមួយការអភិវឌ្ឍន៍ និងការអនុវត្ត AI គឺមានសារៈសំខាន់សម្រាប់ផលិត AI ដែលសមស្រប រួមទាំង (ប្រហែលជាគួរឱ្យភ្ញាក់ផ្អើល ឬហួសចិត្ត) ការវាយតម្លៃអំពីរបៀបដែល AI Ethics ត្រូវបានក្រុមហ៊ុនទទួលយកដោយក្រុមហ៊ុន។
ក្រៅពីការប្រើប្រាស់ច្បាប់សីលធម៌ AI ជាទូទៅ មានសំណួរដែលត្រូវគ្នាថាតើយើងគួរតែមានច្បាប់ដើម្បីគ្រប់គ្រងការប្រើប្រាស់ផ្សេងៗនៃ AI ដែរឬទេ។ ច្បាប់ថ្មីកំពុងត្រូវបានដាក់ពង្រាយនៅកម្រិតសហព័ន្ធ រដ្ឋ និងមូលដ្ឋាន ដែលទាក់ទងនឹងជួរ និងលក្ខណៈនៃរបៀបដែល AI គួរតែត្រូវបានបង្កើត។ ការខិតខំធ្វើសេចក្តីព្រាង និងអនុម័តច្បាប់បែបនេះជាបណ្តើរៗ។ ក្រមសីលធម៌ AI ដើរតួជាគម្លាតដែលត្រូវបានពិចារណា យ៉ាងហោចណាស់ ហើយស្ទើរតែនឹងប្រាកដក្នុងកម្រិតខ្លះត្រូវបានដាក់បញ្ចូលទៅក្នុងច្បាប់ថ្មីទាំងនោះ។
ត្រូវដឹងថាមានអ្នកខ្លះប្រកែកយ៉ាងម៉ឺងម៉ាត់ថាយើងមិនត្រូវការច្បាប់ថ្មីដែលគ្របដណ្ដប់លើ AI ហើយថាច្បាប់ដែលមានស្រាប់របស់យើងគឺគ្រប់គ្រាន់ហើយ។ តាមពិតទៅ ពួកគេបានព្រមានថា ប្រសិនបើយើងអនុវត្តច្បាប់ AI មួយចំនួននេះ យើងនឹងសម្លាប់សត្វពពែមាស ដោយកាត់បន្ថយភាពជឿនលឿននៃ AI ដែលផ្តល់អត្ថប្រយោជន៍យ៉ាងច្រើនដល់សង្គម។
នៅចំនុចប្រសព្វនៃការពិភាក្សាដ៏មានទម្ងន់នេះ ខ្ញុំចង់ភ្នាល់ថា អ្នកពិតជាចង់បានឧទាហរណ៍មួយចំនួនដែលអាចបង្ហាញអំពីប្រធានបទនេះ។ មានគំរូដ៏ពេញនិយមពិសេស និងប្រាកដប្រជាដែលនៅជិតបេះដូងខ្ញុំ។ អ្នកឃើញហើយ ក្នុងសមត្ថភាពរបស់ខ្ញុំក្នុងនាមជាអ្នកជំនាញលើ AI រួមទាំងផលប៉ះពាល់ខាងសីលធម៌ និងផ្នែកច្បាប់ ខ្ញុំត្រូវបានគេសួរជាញឹកញាប់ឱ្យកំណត់ឧទាហរណ៍ជាក់ស្តែងដែលបង្ហាញពីភាពលំបាកនៃក្រមសីលធម៌ AI ដូច្នេះ លក្ខណៈទ្រឹស្តីខ្លះនៃប្រធានបទអាចយល់បានកាន់តែងាយស្រួល។ ផ្នែកមួយដែលរំជើបរំជួលបំផុតដែលបង្ហាញយ៉ាងរស់រវើកអំពីក្រមសីលធម៌ AI នេះគឺការមកដល់នៃរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដដែលមានមូលដ្ឋានលើ AI ។ វានឹងបម្រើជាករណីប្រើប្រាស់ដ៏ងាយស្រួល ឬជាឧទាហរណ៍សម្រាប់ការពិភាក្សាយ៉ាងទូលំទូលាយលើប្រធានបទ។
ខាងក្រោមនេះជាសំណួរដែលគួរអោយចាប់អារម្មណ៍ដែលគួរពិចារណា៖ តើការមកដល់នៃរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដដែលមានមូលដ្ឋានលើ AI បំភ្លឺអ្វីទាំងអស់អំពីដំណោះស្រាយការខ្វែងគំនិតគ្នារវាង AI និងមនុស្ស ហើយប្រសិនបើដូច្នេះ តើនេះបង្ហាញអ្វីខ្លះ?
ទុកពេលឱ្យខ្ញុំមួយភ្លែតដើម្បីស្រាយសំណួរ។
ជាដំបូង សូមចំណាំថា មិនមានអ្នកបើកបរមនុស្សពាក់ព័ន្ធនឹងរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដនោះទេ។ សូមចងចាំថារថយន្តដែលបើកបរដោយខ្លួនឯងពិតប្រាកដគឺត្រូវបានជំរុញតាមរយៈប្រព័ន្ធបើកបរ AI ។ មិនចាំបាច់មានអ្នកបើកបរមនុស្សនៅកង់នោះទេ ហើយក៏មិនមានការផ្តល់ឲ្យមនុស្សដើម្បីបើករថយន្តដែរ។ សម្រាប់ការគ្របដណ្តប់យ៉ាងទូលំទូលាយ និងបន្តរបស់ខ្ញុំនៃយានយន្តស្វយ័ត (AVs) និងជាពិសេសរថយន្តដែលបើកបរដោយខ្លួនឯង សូមមើល តំណភ្ជាប់នៅទីនេះ.
ខ្ញុំចង់បញ្ជាក់បន្ថែមទៀតថាតើវាមានន័យយ៉ាងម៉េចនៅពេលខ្ញុំនិយាយអំពីឡានបើកបរដោយខ្លួនឯង។
ស្វែងយល់ពីកម្រិតនៃរថយន្តបើកបរដោយខ្លួនឯង
ក្នុងនាមជាការបញ្ជាក់មួយរថយន្តបើកបរដោយខ្លួនឯងគឺជាប្រភេទមួយដែលអាយអេសបើកបររថយន្តដោយខ្លួនឯងហើយមិនមានជំនួយពីមនុស្សទេក្នុងពេលបើកបរ។
យានជំនិះគ្មានអ្នកបើកបរទាំងនេះត្រូវបានចាត់ទុកថាជាកម្រិតទី 4 និងកម្រិត 5 (សូមមើលការពន្យល់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ) ខណៈពេលដែលរថយន្តដែលតម្រូវឱ្យអ្នកបើកបរមនុស្សរួមគ្នាចែករំលែកការប្រឹងប្រែងបើកបរជាធម្មតាត្រូវបានចាត់ទុកថានៅកម្រិត 2 ឬកម្រិត 3 ។ រថយន្តដែលរួមគ្នាចែករំលែកភារកិច្ចបើកបរត្រូវបានពិពណ៌នាថាជាពាក់កណ្តាលស្វយ័ត ហើយជាធម្មតាមានភាពខុសគ្នានៃ កម្មវិធីបន្ថែមដោយស្វ័យប្រវត្តិដែលត្រូវបានគេហៅថា ADAS (Advanced Driver-Assistance Systems)។
មិនទាន់មានរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដនៅកម្រិតទី 5 នៅឡើយទេ ហើយយើងក៏មិនទាន់ដឹងថា តើវាអាចសម្រេចបានដែរ ឬអត់នោះទេ ហើយវានឹងចំណាយពេលយូរប៉ុណ្ណាដើម្បីទៅដល់ទីនោះ។
ទន្ទឹមនឹងនេះ កិច្ចខិតខំប្រឹងប្រែងកម្រិតទី 4 កំពុងព្យាយាមបន្តិចម្តងៗ ដើម្បីទទួលបានការអូសទាញមួយចំនួន ដោយឆ្លងកាត់ការសាកល្បងផ្លូវសាធារណៈតូចចង្អៀត និងជ្រើសរើស ទោះបីជាមានភាពចម្រូងចម្រាសលើថាតើការធ្វើតេស្តនេះគួរតែត្រូវបានអនុញ្ញាតក្នុងម្នាក់ៗក៏ដោយ (យើងទាំងអស់គ្នាគឺជាជ្រូកហ្គីណេដែលមានជីវិត ឬស្លាប់នៅក្នុងការពិសោធន៍មួយ។ កើតឡើងនៅលើផ្លូវហាយវេ និងផ្លូវរបស់យើង អ្នកខ្លះឈ្លោះគ្នា សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ).
ដោយសាររថយន្តពាក់កណ្តាលស្វ័យភាពតម្រូវឱ្យមានអ្នកបើកបរជាមនុស្សការអនុម័តប្រភេទរថយន្តទាំងនោះនឹងមិនខុសពីការបើកបរយានយន្តធម្មតាទេដូច្នេះមិនមានអ្វីថ្មីទេសម្រាប់និយាយអំពីប្រធានបទនេះ (ទោះបីជាអ្នកនឹងឃើញក៏ដោយ) ក្នុងពេលតែមួយចំនុចដែលបានធ្វើជាទូទៅអាចអនុវត្តបាន) ។
ចំពោះរថយន្តពាក់កណ្តាលស្វយ័តវាជាការសំខាន់ដែលសាធារណជនត្រូវដឹងជាមុនអំពីទិដ្ឋភាពគួរឱ្យព្រួយបារម្ភដែលកំពុងកើតឡើងនាពេលថ្មីៗនេះពោលគឺទោះបីអ្នកបើកបរមនុស្សទាំងនោះនៅតែបន្តបង្ហោះវីដេអូខ្លួនពួកគេដេកលង់លក់ក្នុងកង់រថយន្តកម្រិត ២ ឬលេខ ៣ ក៏ដោយ។ យើងទាំងអស់គ្នាត្រូវចៀសវាងកុំអោយវង្វេងស្មារតីជឿថាអ្នកបើកបរអាចយកការចាប់អារម្មណ៍របស់ពួកគេចេញពីភារកិច្ចបើកបរនៅពេលបើកបររថយន្តពាក់កណ្តាលស្វយ័ត។
អ្នកគឺជាអ្នកទទួលខុសត្រូវចំពោះសកម្មភាពបើកបររបស់យានយន្តដោយមិនគិតពីចំនួនស្វ័យប្រវត្តិកម្មដែលអាចត្រូវបានបោះចូលទៅក្នុងកម្រិត ២ ឬកម្រិត ៣ ។
រថយន្តបើកបរដោយខ្លួនឯង និងការមិនយល់ស្រប AI-Versus-Human
សម្រាប់យានយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដកម្រិតទី ៤ និងទី ៥ នឹងមិនមានអ្នកបើកបរជាមនុស្សចូលរួមក្នុងការងារបើកបរឡើយ។
អ្នកកាន់កាប់ទាំងអស់នឹងក្លាយជាអ្នកដំណើរ។
អេអាយអេកំពុងធ្វើការបើកបរ។
ទិដ្ឋភាពមួយដែលត្រូវពិភាក្សាភ្លាមៗទាក់ទងនឹងការពិតដែលថាអេ។ អាយ។ អិ។ ពាក់ព័ន្ធនឹងប្រព័ន្ធបើកបរ AI សព្វថ្ងៃមិនងាយស្រួលទេ។ និយាយម៉្យាងទៀតអេអាយគឺទាំងអស់គ្នាជាកម្មវិធីរួមបញ្ចូលគ្នានៃកម្មវិធីនិងក្បួនដោះស្រាយដែលផ្អែកលើកុំព្យូទ័រហើយភាគច្រើនប្រាកដជាមិនអាចវែកញែកតាមរបៀបដែលមនុស្សអាចធ្វើបានឡើយ។
ហេតុអ្វីបានជាការសង្កត់ធ្ងន់បន្ថែមអំពីអេអាយមិនមានអារម្មណ៍?
ដោយសារតែខ្ញុំចង់គូសបញ្ជាក់ថានៅពេលពិភាក្សាអំពីតួនាទីរបស់ប្រព័ន្ធបើកបរ AI ខ្ញុំមិនបានបង្ហាញពីគុណសម្បត្តិរបស់មនុស្សទៅនឹង AI ទេ។ សូមមេត្តាជ្រាបថាមានទំនោរដែលកំពុងបន្តនិងមានគ្រោះថ្នាក់នាពេលបច្ចុប្បន្ននេះចំពោះមនុស្សវិទូ។ បើនិយាយអោយចំទៅមនុស្សកំពុងតែផ្តល់នូវមនោសញ្ចេតនាស្រដៀងនឹងមនុស្សទៅនឹងអេអាយអេសព្វថ្ងៃនេះទោះបីជាការពិតដែលមិនអាចប្រកែកបាននិងមិនអាចកាត់ថ្លៃបានថាពុំមាន AI បែបនេះនៅឡើយទេ។
ជាមួយនឹងការបំភ្លឺនោះអ្នកអាចស្មានថាប្រព័ន្ធបើកបរ AI នឹងមិនមាន“ ដឹង” ពីលក្ខណៈនៃការបើកបរ។ ការបើកបរនិងអ្វីទាំងអស់ដែលវាតម្រូវឱ្យមានកម្មវិធីជាផ្នែកមួយនៃផ្នែករឹងនិងផ្នែកទន់នៃឡានបើកបរដោយខ្លួនឯង។
សូមមុជចូលទៅក្នុងទិដ្ឋភាពជាច្រើនដែលបានមកលេងលើប្រធានបទនេះ។
ជាដំបូង វាជារឿងសំខាន់ដែលត្រូវដឹងថា មិនមែនរថយន្តដែលបើកបរដោយខ្លួនឯង AI ទាំងអស់សុទ្ធតែដូចគ្នានោះទេ។ ក្រុមហ៊ុនផលិតរថយន្តនីមួយៗ និងក្រុមហ៊ុនបច្ចេកវិទ្យាបើកបរដោយខ្លួនឯងកំពុងប្រើប្រាស់វិធីសាស្រ្តរបស់ខ្លួនក្នុងការរៀបចំរថយន្តដែលបើកបរដោយស្វ័យប្រវត្តិ។ ដូចនេះ វាពិបាកក្នុងការធ្វើសេចក្តីថ្លែងការណ៍ដ៏ទូលំទូលាយអំពីអ្វីដែលប្រព័ន្ធបើកបរ AI នឹងធ្វើឬមិនធ្វើ។
លើសពីនេះទៅទៀតនៅពេលណាដែលបញ្ជាក់ថាប្រព័ន្ធបើកបរអេអាយមិនធ្វើអ្វីជាក់លាក់ណាមួយនោះនៅពេលក្រោយនេះអាចត្រូវបានអ្នកអភិវឌ្developersន៍យកឈ្នះដែលតាមពិតកម្មវិធីកុំព្យូទ័រអាចធ្វើបាន។ មួយជំហានម្តង ៗ ប្រព័ន្ធបើកបរអេអាយអាយកំពុងត្រូវបានកែលម្អនិងពង្រីកបន្តិចម្តង ៗ ។ ការដាក់កំហិតដែលមានស្រាប់នៅថ្ងៃនេះប្រហែលជាលែងមាននៅក្នុងការបង្កើតឡើងវិញឬកំណែប្រព័ន្ធនាពេលអនាគត។
ខ្ញុំសង្ឃឹមថា វាផ្តល់នូវការព្រមានដ៏គ្រប់គ្រាន់មួយ ដើម្បីគូសបញ្ជាក់នូវអ្វីដែលខ្ញុំរៀបនឹងទាក់ទង។
សម្រាប់យានជំនិះដែលមានស្វ័យភាពពេញលេញ វាប្រហែលជាមិនមានឱកាសនៃការខ្វែងគំនិតគ្នារវាងមនុស្ស និង AI នោះទេ ដោយសារតែលទ្ធភាពដែលមិនមានមនុស្សនៅក្នុងរង្វង់ដើម្បីចាប់ផ្តើមជាមួយ។ ក្តីប្រាថ្នារបស់អ្នកផលិតរថយន្តបើកបរដោយខ្លួនឯងជាច្រើននាពេលបច្ចុប្បន្ននេះគឺចង់ដកអ្នកបើកបរមនុស្សទាំងស្រុងចេញពីការងារបើកបរ។ រថយន្តនឹងមិនមានសូម្បីតែការគ្រប់គ្រងការបើកបរដែលអាចចូលដំណើរការបានដោយមនុស្ស។ ក្នុងករណីនោះ អ្នកបើកបរជាមនុស្ស បើមានវត្តមាន នឹងមិនអាចចូលរួមក្នុងកិច្ចការបើកបរបានទេ ព្រោះពួកគេខ្វះសិទ្ធិចូលទៅកាន់ការគ្រប់គ្រងការបើកបរ។
សម្រាប់យានជំនិះដែលមានស្វ័យភាពពេញលេញ ការរចនាខ្លះនៅតែអនុញ្ញាតឱ្យមនុស្សនៅក្នុងរង្វង់ ទោះបីជាមនុស្សមិនចាំបាច់មាន ឬចូលរួមក្នុងដំណើរការបើកបរក៏ដោយ។ ដូច្នេះ មនុស្សអាចចូលរួមក្នុងការបើកបរ ប្រសិនបើបុគ្គលនោះចង់ធ្វើដូច្នេះ។ ទោះបីជាយ៉ាងណាក៏ដោយ AI ពឹងផ្អែកលើមនុស្សដើម្បីបំពេញការងារណាមួយនៃការបើកបរ។
ក្នុងករណីរថយន្តពាក់កណ្តាលស្វយ័តមានទំនាក់ទំនងរវាងអ្នកបើកបរមនុស្សនិង AI។ អ្នកបើកបរមនុស្សអាចគ្រប់គ្រងការគ្រប់គ្រងការបើកបរទាំងស្រុង ហើយជាសំខាន់បញ្ឈប់ AI ពីការចូលរួមក្នុងការបើកបរ។ ប្រសិនបើអ្នកបើកបរមនុស្សចង់បញ្ចូល AI ឡើងវិញទៅក្នុងតួនាទីបើកបរ ពួកគេអាចធ្វើដូច្នេះបាន ទោះបីជាពេលខ្លះវាបង្ខំមនុស្សឱ្យបោះបង់ការគ្រប់គ្រងការបើកបរក៏ដោយ។
ទម្រង់ប្រតិបត្តិការពាក់កណ្តាលស្វយ័តមួយផ្សេងទៀតនឹងរួមបញ្ចូលអ្នកបើកបរមនុស្ស និង AI ធ្វើការរួមគ្នាក្នុងលក្ខណៈជាក្រុម។ AI កំពុងបើកបរ ហើយមនុស្សកំពុងបើកបរ។ ពួកគេកំពុងបើកបរជាមួយគ្នា។ AI អាចពន្យារដល់មនុស្ស។ មនុស្សអាចពន្យាពេលទៅ AI ។
នៅចំណុចប្រសព្វខ្លះ ប្រព័ន្ធបើកបរ AI និងអ្នកបើកបរមនុស្សនៅក្នុងរង្វង់អាចឈានដល់ចំណុចប្រសព្វនៃ "ការមិនចុះសម្រុងគ្នាក្នុងវិជ្ជាជីវៈ" ចំពោះកិច្ចការបើកបរនៅនឹងដៃ។
ដើម្បីបង្ហាញពីរបៀបដែលច្បាប់ដែលបានរៀបរាប់ខាងលើមួយចំនួននៃការដោះស្រាយការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈអាចជាបញ្ហាប្រឈមក្នុងការអនុវត្ត សូមពិចារណាឧទាហរណ៍នៃការអញ្ជើញមនុស្សភាគីទីបីឱ្យចូលទៅក្នុងបញ្ហានេះ ហើយផ្តល់ការសម្រេចចិត្តដើម្បីដោះស្រាយបញ្ហាដែលមិនទាន់បានដោះស្រាយ។
ឧបមាថាក្រុមហ៊ុនផលិតរថយន្ត ឬក្រុមហ៊ុនបច្ចេកវិទ្យាបើកបរដោយខ្លួនឯងបានរៀបចំសម្រាប់ប្រតិបត្តិករមនុស្សពីចម្ងាយ ដើម្បីអាចចូលទៅគ្រប់គ្រងការបើកបរយានយន្តនៅក្នុងកងនាវារបស់ពួកគេ។ ប្រតិបត្តិករមនុស្សកំពុងអង្គុយនៅការិយាល័យឆ្ងាយៗ ឬស្រដៀងនឹងការកំណត់។ តាមរយៈប្រព័ន្ធកុំព្យូទ័រ ពួកគេអាចមើលទិដ្ឋភាពនៃការបើកបរតាមរយៈការចូលទៅកាន់កាមេរ៉ា និងឧបករណ៍ចាប់សញ្ញាផ្សេងទៀតដែលផ្ទុកនៅលើរថយន្តដែលបើកបរដោយខ្លួនឯង។ សម្រាប់ពួកគេ នេះស្ទើរតែដូចជាការលេងហ្គេមវីដេអូអនឡាញមួយ ទោះជាយ៉ាងនេះក្តី ស្ថានភាពក្នុងជីវិតពិតអាចមានផលវិបាកធ្ងន់ធ្ងរ។
ប្រព័ន្ធ AI និងអ្នកបើកបរមនុស្សនៅខាងក្នុងរថយន្តកំពុងបើករថយន្តពាក់កណ្តាលស្វយ័តចុះពីលើផ្លូវដ៏វែងមួយ។ ភ្លាមៗនោះ AI ចង់ចូលទៅក្នុងប្រឡាយ។ អ្នកបើកបរមនុស្សមិនចង់ធ្វើបែបនេះទេ។ អ្នកទាំងពីរប៉ះទង្គិចគ្នាជុំវិញការគ្រប់គ្រងការបើកបរ។
តើនេះនឹងត្រូវដោះស្រាយដោយរបៀបណា?
យើងអាចកំណត់ជាមុនថា មនុស្សតែងតែឈ្នះ។ សន្មតថាយើងជ្រើសរើសមិនធ្វើវា។
យើងអាចកំណត់ជាមុនថា AI តែងតែឈ្នះ។ សន្មតថាយើងជ្រើសរើសមិនធ្វើដូច្នេះ។ សរុបមក យើងមិនបានអនុម័តច្បាប់ណាមួយនោះទេ ក្រៅពីយើងសម្រេចចិត្តអនុញ្ញាតឱ្យមនុស្សភាគីទីបីធ្វើអន្តរាគមន៍ និងដោះស្រាយការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈនៃធម្មជាតិសំខាន់ៗណាមួយ។
ក្នុងករណីប្រើប្រាស់នេះ AI និងអ្នកបើកបរមនុស្សនៅកង់កំពុងប្រយុទ្ធដើម្បីគ្រប់គ្រងការបើកបរ។ នេះត្រូវបានគេនិយាយថាបញ្ជូនទៅប្រតិបត្តិករមនុស្សដាច់ស្រយាល (មនុស្សភាគីទីបីរបស់យើង)។ ប្រតិបត្តិកររបស់មនុស្សពីចម្ងាយពិនិត្យមើលនូវអ្វីដែលកំពុងកើតឡើង ហើយសម្រេចចិត្តកាច់ចង្កូតចេញពីប្រឡាយ ហាក់ដូចជាបដិសេធនូវអ្វីដែល AI កំពុងព្យាយាមធ្វើ។ ក្នុងពេលជាមួយគ្នានេះ ឧបមាថា ប្រតិបត្តិករមនុស្សពីចម្ងាយ ដឹកនាំទៅក្នុងចរាចរណ៍ដែលកំពុងមកដល់ ដែលប្រហែលជាមិនមាន AI ឬអ្នកបើកបរមនុស្សនៅក្នុងរថយន្តមិនចង់ធ្វើនោះទេ។
ចំនុចនោះគឺថាវិធីដែលច្បាប់នេះត្រូវបានអនុវត្តគឺថាប្រតិបត្តិកររបស់មនុស្សភាគីទីបីអាចបដិសេធទាំងស្រុងទាំង AI និងមនុស្សនៅក្នុងរង្វង់។ ថាតើវានឹងបង្កើតលទ្ធផលល្អឬអត់នោះ វាមិនប្រាកដទេ
ខ្ញុំនឹងប្រើឧទាហរណ៍នេះដើម្បីរំលេចការយល់ដឹងបន្ថែមមួយចំនួនលើបញ្ហាទាំងនេះ។
អ្នកមិនអាចធ្វើការសន្មត់ដែលថាដោយសារតែច្បាប់មួយក្នុងចំណោមច្បាប់ទាំងនេះត្រូវបានគេដាក់ចូលក្នុងកន្លែងដែលលទ្ធផលនៃការខ្វែងគំនិតគ្នាដែលបានដោះស្រាយនោះគឺជាលទ្ធផលល្អដែលត្រូវបានធានា។ វាប្រហែលជាមិនមែនទេ។ មិនមានក្បួនតម្រាត្រឹមត្រូវដែលអាចជ្រើសរើសបានទេ។
បន្ទាប់មក ច្បាប់ទាំងនេះមួយចំនួនប្រហែលជាមិនអាចអនុវត្តបានឡើយ។
ពិចារណាឧទាហរណ៍នៃប្រតិបត្តិករមនុស្សពីចម្ងាយដែលធ្វើអន្តរាគមន៍នៅពេលដែល AI និងអ្នកបើកបរមនុស្សកំពុងឈ្លោះប្រកែកគ្នាលើការគ្រប់គ្រងការបើកបរ។ វាអាចចំណាយពេលច្រើនវិនាទីសម្រាប់ប្រតិបត្តិកររបស់មនុស្សពីចម្ងាយដើម្បីស្វែងរកអ្វីដែលកំពុងកើតឡើង។ នៅពេលនោះ រថយន្តអាចនឹងធ្លាក់ចូលទៅក្នុងប្រឡាយ ឬមានលទ្ធផលមិនល្អផ្សេងទៀត។ ម្យ៉ាងទៀត ឧបមាថា ទីតាំងរបស់យានជំនិះរារាំងការចូលប្រើពីចម្ងាយ ដូចជានៅកន្លែងខ្លះដែលមិនមានការតភ្ជាប់បណ្តាញអេឡិចត្រូនិច។ ឬប្រហែលជាមុខងារបណ្តាញរបស់យានជំនិះមិនដំណើរការនៅពេលជាក់លាក់នោះ។
ដូចដែលអ្នកអាចឃើញ ច្បាប់អាចមើលទៅមិនស្អាតនៅលើក្រដាស បើទោះបីជាការដាក់ច្បាប់ទៅក្នុងការប្រើប្រាស់ជាក់ស្តែងអាចជាវិធីសាស្រ្តដ៏លំបាក ឬមានឱកាសខ្ពស់ក៏ដោយ។ សូមមើលការគ្របដណ្តប់ភ្នែកដ៏សំខាន់របស់ខ្ញុំនៅលើប្រតិបត្តិករពីចម្ងាយនៃយានយន្តស្វយ័ត និងរថយន្តដែលបើកបរដោយខ្លួនឯងនៅ តំណភ្ជាប់នៅទីនេះ.
ខ្ញុំចង់និយាយដោយសង្ខេបអំពីប្រធានបទពាក់ព័ន្ធមួយទៀត ដែលខ្ញុំនឹងរៀបរាប់ឱ្យកាន់តែស៊ីជម្រៅនៅក្នុងការវិភាគនាពេលខាងមុខ។
កង្វល់មួយដែលកំពុងកើនឡើងអំពីរថយន្តស្វយ័ត និងរថយន្តបើកបរដោយខ្លួនឯងដែលមានពាក់កណ្តាលស្វ័យប្រវត្តិគឺជាអ្វីដែលគេហៅថា រោគសញ្ញាដំឡូងក្តៅ.
នេះជាកិច្ចព្រមព្រៀង។
ប្រព័ន្ធបើកបរ AI និងមនុស្សកំពុងបើកបររួមគ្នា។ ឧប្បត្តិហេតុធ្ងន់ធ្ងរកើតឡើង។ AI ត្រូវបានគេដាក់កម្មវិធីឱ្យឈប់ពីការងារបើកបរ ហើយបង្វែរវត្ថុមកមនុស្សវិញពេលមានគ្រោះថ្នាក់អាក្រក់កើតឡើង។ វាហាក់ដូចជា "សមហេតុសមផល" ដែលយើងហាក់ដូចជាកំពុងហៅច្បាប់អំពីមនុស្សថាជា "អ្នកឈ្នះ" លំនាំដើមនៅក្នុងការខ្វែងគំនិតគ្នាប្រកបដោយវិជ្ជាជីវៈណាមួយ។
ប៉ុន្តែ AI ទម្លាក់ចេញអាចនឹងធ្វើឡើងក្នុងគោលបំណងមិនសមរម្យជាងនេះឬចាត់ទុកថាជាគោលបំណងអាក្រក់។ វាអាចថាក្រុមហ៊ុនផលិតរថយន្ត ឬក្រុមហ៊ុនបច្ចេកវិទ្យាបើកបរដោយខ្លួនឯងមិនចង់ឲ្យ AI របស់ពួកគេត្រូវបានគេចាត់ទុកថាជា “ភាគីមានកំហុស” នៅពេលមានគ្រោះថ្នាក់រថយន្តកើតឡើង។ ដើម្បីជៀសវាងការមិនជាប់គាំងបែបនេះ AI ប្រគល់វត្ថុបញ្ជាទៅមនុស្សភ្លាមៗ។ Voila, មនុស្សឥឡូវត្រូវបានសន្មតថាទទួលខុសត្រូវទាំងស្រុងសម្រាប់រថយន្ត។
អ្នកទាត់គឺថាឧបមាថា AI ធ្វើប្រតិបត្តិការនេះដោយអនុញ្ញាតឱ្យនិយាយថានៅសល់មួយវិនាទីដើម្បីទៅមុនពេលគាំងកើតឡើង។
តើមនុស្សពិតជាមានពេលវេលាណាមួយដើម្បីជៀសវាងការធ្លាក់យន្តហោះមែនទេ?
ទំនងមិនមែនទេ។
ឧបមាថា AI ធ្វើការចែកចេញជាពីរបីមិល្លីវិនាទី ឬណាណូវិនាទីដែលនៅសល់ដើម្បីដំណើរការ។ ខ្ញុំហ៊ាននិយាយថា មនុស្សពិតជាគ្មានឱកាសក្នុងការធ្វើអ្វីដើម្បីបញ្ចៀសការធ្លាក់យន្តហោះនោះទេ។
តាមទស្សនៈរបស់ក្រុមហ៊ុនផលិតរថយន្ត ឬក្រុមហ៊ុនរថយន្តដែលបើកបរដោយខ្លួនឯង ពួកគេអាចព្យាយាមធ្វើដូចជាដៃស្អាតនៅពេលមានគ្រោះថ្នាក់រថយន្តកើតឡើង។ រថយន្តត្រូវបានមនុស្សបើកបរ។ AI មិនបានបើកឡានទេ។ ការសន្និដ្ឋានតែមួយគត់ "ឡូជីខល" ហាក់ដូចជាថាមនុស្សត្រូវតែមានកំហុសហើយ AI ត្រូវតែគ្មានកំហុសទាំងស្រុង។
វាជាដុំដែក។
ខ្ញុំនឹងពិភាក្សារឿងនេះឱ្យកាន់តែស៊ីជម្រៅនៅក្នុងជួរឈរនាពេលខាងមុខ។
សន្និដ្ឋាន
ការមិនចុះសម្រុងនឹងវិជ្ជាជីវៈនឹងកើតឡើង។
វាពិបាកក្នុងការស្រមៃមើលកិច្ចការស្មុគ្រស្មាញណាមួយដែលមានភាគីទាំងពីរសហការគ្នាអនុវត្តការងារ ហើយដែលមិនដែលមានការខ្វែងគំនិតគ្នាខាងវិជ្ជាជីវៈណាមួយកើតឡើងនោះទេ។ វាហាក់ដូចជា Fantasyland ឬយ៉ាងហោចណាស់ក៏កម្រមានណាស់។
សព្វថ្ងៃនេះ យើងមានឧទាហរណ៍ជាច្រើនពីមនុស្សទៅមនុស្សនៃការខ្វែងគំនិតគ្នាក្នុងវិជ្ជាជីវៈ ដែលដំណោះស្រាយប្រចាំថ្ងៃត្រូវបានដោះស្រាយដោយសន្តិវិធី និងសមហេតុផលតាមមធ្យោបាយមួយ ឬមធ្យោបាយផ្សេងទៀត។ ជាការពិត ជារឿយៗយើងរៀបចំស្ថានការណ៍ដោយចេតនា ដើម្បីជំរុញឱ្យមានការខ្វែងគំនិតគ្នាក្នុងវិជ្ជាជីវៈ។ អ្នកប្រហែលជាប្រកែកថានេះបង្ហាញពីប្រាជ្ញាដ៏ល្បីល្បាញដែលពេលខ្លះក្បាលពីរល្អជាងមួយ។
នៅពេលដែល AI កាន់តែរីករាលដាល យើងនឹងមានអ្នកអនុវត្តភារកិច្ចពីរភាគី AI ទៅមនុស្ស ឬមនុស្សទៅ AI ជាច្រើន ហើយនឹងមាន ការមិនចុះសម្រុងនឹងវិជ្ជាជីវៈ ដែលនឹងកើតឡើង។ វិធីសាស្រ្តខ្ជិលគឺតែងតែបង្អង់មនុស្ស។ នេះប្រហែលជាមិនមែនជាវិធីសាស្រ្តសមស្របបំផុតនោះទេ។ AI អាចជាជម្រើសល្អជាង។ ឬមួយក្នុងចំនោមច្បាប់ដែលបានរៀបរាប់ខាងលើ អាចជាវិធីសាស្រ្តដែលល្អជាង។
មានខ្សែប្រាជ្ញាដែលនិយាយជាញឹកញាប់ថា យើងទាំងអស់គ្នាគួរតែអាចយល់ព្រមមិនយល់ស្រប ទោះបីជាពេលដែលវាមកដល់ខ្សែ ជួនកាលការខ្វែងគំនិតគ្នាត្រូវតែដោះស្រាយដោយមិនច្បាស់លាស់ បើសិនជាបញ្ហានៅនឹងដៃនឹងនាំទៅរកគ្រោះមហន្តរាយមិនអាចដឹងបាន។ យើងមិនអាចទុកឱ្យការខ្វែងគំនិតគ្នានៅលើដើមទំពាំងបាយជូរនោះទេ។ ពេលវេលាអាចជារឿងសំខាន់ ហើយជីវិតអាចនឹងមានបញ្ហា។
មានតម្រូវការច្បាស់លាស់សម្រាប់មធ្យោបាយប្រុងប្រយ័ត្នមួយចំនួនដើម្បីដោះស្រាយការខ្វែងគំនិតគ្នា ទោះបីជាមិនចាំបាច់យល់ព្រមក៏ដោយ រួមទាំងពេលដែល AI និងមនុស្សនៅក្នុងរង្វង់មិនបានឃើញផ្ទាល់ភ្នែក ឬបៃទៅបៃ។
ខ្ញុំជឿជាក់ថាអ្នកនឹងមិនយល់ស្របនឹងការឈ្លោះប្រកែកគ្នាដែលអាចយល់ស្របទាំងស្រុងនោះទេ។
ប្រភព៖ https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- the-pilot-and-co-pilot- disagreed-pre-to-take-off-and-abruptly-opted-taxi-back-to-the-terminal-and-go-their-separate-ways/