តើអ្នកធ្លាប់លេងបៀរហាសិបពីរទេ?
វាមិនមែនជាល្បែងដែលជាធម្មតាអ្នកធ្វើដោយស្ម័គ្រចិត្តនោះទេ។ នេះជាមូលហេតុ។ មាននរណាម្នាក់ផ្តល់ឱ្យអ្នកថាវាគឺជាកីឡាដ៏រីករាយមួយ ហើយប្រសិនបើអ្នកយកនុយដ៏ផ្អែមនោះ ពួកគេនឹងបោះសន្លឹកបៀទាំងមូលទៅលើអាកាស ហើយសង្ខេបទៅលើឥដ្ឋ។ បន្ទាប់មក បុគ្គលនោះផ្តល់ស្នាមញញឹមដ៏ក្រៀមក្រំ និងប្រាប់អ្នកឱ្យទៅយកសន្លឹកបៀ។ នោះជាហ្គេមទាំងមូល។
លេងសើច!
ខ្ញុំមានសំណួរគួរពិចារណាមួយដើម្បីសួរអ្នកអំពីរឿងនេះ។
ឧបមាថាសន្លឹកបៀមួយសន្លឹកបានរអិលនៅក្រោមសាឡុងក្បែរនោះ។ នៅពេលអ្នករើសសន្លឹកបៀទាំងអស់ចប់ អ្នកនឹងដឹងថាមួយបានបាត់ ព្រោះវានឹងមានត្រឹមតែហាសិបមួយនៅក្នុងដៃរបស់អ្នកប៉ុណ្ណោះ។
សំណួរសួរថា តើអ្នកអាចកំណត់ថាបាត់កាតមួយណាទេ?
ខ្ញុំប្រាកដថាអ្នកនឹងនិយាយភ្លាមថាអ្នកអាចដឹងយ៉ាងងាយស្រួលថាកាតមួយណាមិននៅក្នុងដៃ។ អ្វីដែលអ្នកត្រូវធ្វើគឺដាក់តុឱ្យមានសណ្តាប់ធ្នាប់។ អ្នកដឹងទេថា បន្ទះស្ដង់ដារមានបួនឈុត ហើយក្នុងឈុតនីមួយៗ សន្លឹកបៀត្រូវបានរាប់ពីមួយទៅដប់ ហើយបន្ទាប់មកចូលទៅក្នុង Jack, Queen និង King។
អ្នកដឹងរឿងនេះព្រោះការលេងបៀស្តង់ដារគឺផ្អែកលើស្តង់ដារ។
អូ សេចក្តីថ្លែងការណ៍នោះអាចហាក់ដូចជាការអះអាងជាក់ស្តែងមួយក្នុងចំណោមការអះអាងជាក់ស្តែង។ បាទ/ចាស៎ ជាការពិត ការលេងស្ដង់ដារគឺផ្អែកលើស្ដង់ដារ។ យើងទាំងអស់គ្នាដឹងរឿងនោះ។ ចំណុចរបស់ខ្ញុំគឺថា តាមរយៈការមានស្ដង់ដារ យើងអាចពឹងផ្អែកលើស្តង់ដារនៅពេលចាំបាច់។ ក្រៅពីអាចកាត់បន្ថយថាតើកាតណាដែលបាត់ចេញពីបន្ទះមួយ អ្នកក៏អាចលេងហ្គេមកាតល្បីរាប់លានជាមួយមនុស្សផ្សេងទៀតបានយ៉ាងងាយស្រួល។ នៅពេលដែលនរណាម្នាក់ត្រូវបានប្រាប់ពីច្បាប់នៃហ្គេម ពួកគេអាចលេងដោយផ្ទាល់បាន ពីព្រោះពួកគេដឹងច្បាស់រួចហើយថា ហ្គេមនេះមានអ្វីខ្លះ។ អ្នកមិនចាំបាច់ពន្យល់ពួកគេថា Deck មានបួនឈុត និងសន្លឹកបៀដែលមានលេខខុសៗគ្នា។ ពួកគេដឹងរួចទៅហើយថាជារឿងនោះ។
តើខ្ញុំទៅណាជាមួយនេះ?
ខ្ញុំកំពុងព្យាយាមនាំអ្នកទៅកាន់ផ្លូវមួយ ដែលជាមធ្យោបាយដ៏សំខាន់ក្នុងការធ្វើឱ្យមានការរីកចម្រើនក្នុងវិស័យ AI និងជាពិសេសអាណាចក្រនៃ AI Ethics និង Ethical AI ។ អ្នកឃើញហើយ យើងត្រូវព្យាយាមបង្កើតឱ្យមានការរីករាលដាល និងយល់ព្រមទាំងអស់លើស្តង់ដារអំពីក្រមសីលធម៌ AI ។ ប្រសិនបើយើងអាចធ្វើដូច្នេះបាន វានឹងបង្កើនភាពងាយស្រួលនៃការទទួលយក Ethical AI និងបង្ហាញឱ្យឃើញនូវគោលបំណងធ្វើឱ្យប្រសើរឡើងនូវប្រព័ន្ធ AI ដែលរក្សាការបោះចោលទៅក្នុងទីផ្សារ (ដូចជាសន្លឹកបៀដែលមិនរាប់លេខ និងមិនមានលំដាប់)។ សម្រាប់ការគ្របដណ្តប់បន្ត និងទូលំទូលាយរបស់ខ្ញុំអំពីក្រមសីលធម៌ AI ក្រមសីលធម៌ AI និងច្បាប់ AI សូមមើល តំណភ្ជាប់នៅទីនេះ និង តំណភ្ជាប់នៅទីនេះ, គ្រាន់តែឈ្មោះមួយចំនួន។
ផ្នែកជាក់លាក់មួយ ឬផ្នែកនៃក្រមសីលធម៌ AI ដែលកំពុងទទួលបានការចាប់អារម្មណ៍ពីប្រព័ន្ធផ្សព្វផ្សាយជាច្រើនរួមមាន AI ដែលបង្ហាញពីភាពលំអៀង និងភាពមិនស្មើគ្នា។ អ្នកប្រហែលជាដឹងហើយថា នៅពេលដែលយុគសម័យចុងក្រោយនៃ AI បានចាប់ផ្តើម មានការសាទរយ៉ាងខ្លាំងចំពោះអ្វីដែលមនុស្សមួយចំនួនហៅថា អាយអេសដើម្បីភាពល្អ. ជាអកុសល យើងចាប់ផ្តើមធ្វើសាក្សីដោយភាពរំភើបរីករាយ អាយអេសសម្រាប់អាក្រក់. ជាឧទាហរណ៍ ប្រព័ន្ធសម្គាល់មុខដែលមានមូលដ្ឋានលើ AI ជាច្រើនត្រូវបានបង្ហាញថាមានផ្ទុកនូវភាពលំអៀងជាតិសាសន៍ និងលម្អៀងយេនឌ័រ ដែលខ្ញុំបានពិភាក្សានៅ តំណភ្ជាប់នៅទីនេះ.
ខំប្រឹងទប់ទល់ អាយអេសសម្រាប់អាក្រក់ កំពុងដំណើរការយ៉ាងសកម្ម។ ក្រៅពីស្រែកថ្ងូរ ផ្នែកច្បាប់ ការខិតខំប្រឹងប្រែងក្នុងការទប់ទល់នឹងការប្រព្រឹត្តខុស វាក៏មានការជំរុញយ៉ាងសំខាន់ឆ្ពោះទៅរកការទទួលយកក្រមសីលធម៌ AI ដើម្បីកែតម្រូវភាពអាក្រក់របស់ AI ។ គំនិតនេះគឺថាយើងគួរតែទទួលយក និងគាំទ្រគោលការណ៍សីលធម៌ AI សំខាន់ៗសម្រាប់ការអភិវឌ្ឍន៍ និងការអនុវត្តរបស់ AI ដើម្បីធ្វើដូច្នេះដើម្បីកាត់បន្ថយ។ អាយអេសសម្រាប់អាក្រក់ ហើយក្នុងពេលដំណាលគ្នាផ្សព្វផ្សាយ និងផ្សព្វផ្សាយការពេញចិត្ត អាយអេសដើម្បីភាពល្អ.
តាមគំនិតដែលពាក់ព័ន្ធ ខ្ញុំជាអ្នកតស៊ូមតិក្នុងការព្យាយាមប្រើ AI ជាផ្នែកនៃដំណោះស្រាយចំពោះបញ្ហា AI ដោយប្រយុទ្ធនឹងភ្លើងក្នុងរបៀបនៃការគិតនោះ។ ជាឧទាហរណ៍ យើងអាចបញ្ចូលសមាសធាតុ Ethical AI ទៅក្នុងប្រព័ន្ធ AI ដែលនឹងត្រួតពិនិត្យពីរបៀបដែល AI ដែលនៅសល់កំពុងធ្វើ ហើយដូច្នេះវាអាចចាប់យកការខិតខំប្រឹងប្រែងរើសអើងណាមួយក្នុងពេលជាក់ស្តែង សូមមើលការពិភាក្សារបស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ. យើងក៏អាចមានប្រព័ន្ធ AI ដាច់ដោយឡែកដែលដើរតួជាប្រភេទនៃម៉ូនីទ័រ AI Ethics ។ ប្រព័ន្ធ AI ដើរតួជាអ្នកត្រួតពិនិត្យដើម្បីតាមដាន និងរកឃើញនៅពេលដែល AI មួយផ្សេងទៀតកំពុងចូលទៅក្នុងទីជ្រៅបំផុតដែលគ្មានសីលធម៌ (សូមមើលការវិភាគរបស់ខ្ញុំអំពីសមត្ថភាពបែបនេះនៅ តំណភ្ជាប់នៅទីនេះ).
បន្តិចទៀតនេះ ខ្ញុំនឹងចែករំលែកជាមួយអ្នកនូវគោលការណ៍ទូទៅមួយចំនួនដែលស្ថិតនៅក្រោមក្រមសីលធម៌ AI ។ មានបញ្ជីប្រភេទទាំងនេះជាច្រើនអណ្តែតនៅជុំវិញទីនេះ និងទីនោះ។ អ្នកអាចនិយាយបានថា មិនទាន់មានបញ្ជីឯកវចនៈនៃការអំពាវនាវជាសកល និងការស្របគ្នានៅឡើយ។ នោះជាដំណឹងអកុសល។ ដំណឹងល្អនោះគឺថា យ៉ាងហោចណាស់មានបញ្ជីសីលធម៌ AI ដែលអាចរកបានរួចរាល់ ហើយពួកគេមានទំនោរស្រដៀងគ្នា។ ទាំងអស់បានប្រាប់ នេះបង្ហាញថាតាមរយៈទម្រង់នៃការបញ្ចូលគ្នាប្រកបដោយហេតុផលនៃប្រភេទដែលយើងកំពុងស្វែងរកវិធីរបស់យើងឆ្ពោះទៅរកភាពសាមញ្ញទូទៅនៃអ្វីដែល AI Ethics មាន។
ខ្ញុំលើកយកចំណុចនេះឡើង ដើម្បីផ្តល់ជាមូលដ្ឋានគ្រឹះសម្រាប់ការពិភាក្សារបស់ខ្ញុំនៅទីនេះ ដែលនឹងផ្តោតលើផ្នែកជាក់លាក់មួយ ឬផ្នែកនៃអាណាចក្រដ៏ទូលំទូលាយនៃក្រមសីលធម៌ AI ពោលគឺដូចដែលបានរៀបរាប់ពីមុនធាតុជាក់លាក់នៃលំអៀង AI ។ ហេតុផលដែលខ្ញុំចែករំលែកប្រធានបទនេះជាមួយអ្នកគឺដោយសារឯកសារដែលចេញផ្សាយដោយវិទ្យាស្ថានស្តង់ដារ និងបច្ចេកវិទ្យាជាតិ (NIST) កំពុងព្យាយាមធ្វើឱ្យយើងឆ្ពោះទៅរកស្តង់ដារ AI ដែលមានលក្ខណៈលំអៀង។ ឯកសារមានសិទ្ធិ ឆ្ពោះទៅរកស្តង់ដារសម្រាប់កំណត់អត្តសញ្ញាណ និងគ្រប់គ្រងភាពលំអៀងនៅក្នុងបញ្ញាសិប្បនិម្មិត ដោយអ្នកនិពន្ធ Reva Schwartz, Apostol Vassilev, Kristen Greene, Lori Perine, Andrew Burt, និង Patrick Hall ហើយត្រូវបានបោះពុម្ពដោយក្រសួងពាណិជ្ជកម្មសហរដ្ឋអាមេរិក NIST Special Publication 1270 ក្នុងខែមីនា ឆ្នាំ 2022។
យើងនឹងស្រាយកញ្ចប់កិច្ចខិតខំប្រឹងប្រែងដែលមានប្រយោជន៍ និងលើកទឹកចិត្តឆ្ពោះទៅរកការបង្កើតនូវអ្វីដែលយើងចង់បានដោយការលម្អៀង AI។ ពាក្យចាស់ពោលថា អ្នកមិនអាចគ្រប់គ្រងអ្វីដែលមិនអាចវាស់វែងបានទេ។ ដោយមានស្ដង់ដារដែលដាក់ចេញនូវភាពលម្អៀងរបស់ AI អ្នកអាចចាប់ផ្ដើមវាស់វែង និងគ្រប់គ្រងភាពលំអៀង AI។
ជាដំបូង សូមនិយាយដោយសង្ខេបនូវសិក្ខាបទនៃក្រមសីលធម៌ AI រួមមួយចំនួន ដើម្បីបង្ហាញពីអ្វីដែលគួរតែជាការពិចារណាដ៏សំខាន់សម្រាប់នរណាម្នាក់ដែលបង្កើត បង្កើត ឬប្រើប្រាស់ AI ។
ជាឧទាហរណ៍ ដូចមានចែងដោយបុរីវ៉ាទីកង់ ទីក្រុងរ៉ូមអំពាវនាវឱ្យមានក្រមសីលធម៌ AI ហើយដូចដែលខ្ញុំបានគ្របដណ្តប់ស៊ីជម្រៅ តំណភ្ជាប់នៅទីនេះទាំងនេះគឺជាគោលការណ៍សីលធម៌ AI ចម្បងចំនួនប្រាំមួយដែលបានកំណត់របស់ពួកគេ៖
- តម្លាភាព: ជាគោលការណ៍ ប្រព័ន្ធ AI ត្រូវតែអាចពន្យល់បាន។
- បញ្ចូល៖ តម្រូវការរបស់មនុស្សគ្រប់រូបត្រូវតែយកមកពិចារណា ដើម្បីឲ្យមនុស្សគ្រប់រូបទទួលបានអត្ថប្រយោជន៍ ហើយបុគ្គលទាំងអស់អាចទទួលបានលក្ខខណ្ឌល្អបំផុតដើម្បីបង្ហាញពីខ្លួនឯង និងអភិវឌ្ឍ។
- ទំនួលខុសត្រូវ: អ្នកដែលរចនា និងដាក់ពង្រាយការប្រើប្រាស់ AI ត្រូវតែដំណើរការដោយការទទួលខុសត្រូវ និងតម្លាភាព
- មិនលំអៀង៖ កុំបង្កើត ឬធ្វើសកម្មភាពដោយលំអៀង ការពារភាពត្រឹមត្រូវ និងសេចក្តីថ្លៃថ្នូររបស់មនុស្ស
- ភាពជឿជាក់៖ ប្រព័ន្ធ AI ត្រូវតែអាចដំណើរការដោយភាពជឿជាក់
- សុវត្ថិភាព និងឯកជនភាព៖ ប្រព័ន្ធ AI ត្រូវតែដំណើរការដោយសុវត្ថិភាព និងគោរពភាពឯកជនរបស់អ្នកប្រើប្រាស់។
ដូចដែលបានបញ្ជាក់ដោយក្រសួងការពារជាតិសហរដ្ឋអាមេរិក (DoD) នៅក្នុងរបស់ពួកគេ។ គោលការណ៍សីលធម៌សម្រាប់ការប្រើប្រាស់បញ្ញាសិប្បនិម្មិត ហើយដូចដែលខ្ញុំបានគ្របដណ្តប់ស៊ីជម្រៅ តំណភ្ជាប់នៅទីនេះនេះគឺជាគោលការណ៍សីលធម៌ AI ចម្បងចំនួនប្រាំមួយរបស់ពួកគេ៖
- ទទួលខុសត្រូវ: បុគ្គលិក DoD នឹងអនុវត្តកម្រិតនៃការវិនិច្ឆ័យ និងការថែទាំសមស្រប ខណៈពេលដែលនៅតែទទួលខុសត្រូវចំពោះការអភិវឌ្ឍន៍ ការដាក់ពង្រាយ និងការប្រើប្រាស់សមត្ថភាព AI ។
- សមភាព៖ នាយកដ្ឋាននឹងចាត់វិធានការដោយចេតនា ដើម្បីកាត់បន្ថយភាពលំអៀងដោយអចេតនានៅក្នុងសមត្ថភាព AI ។
- អាចតាមដានបាន៖ សមត្ថភាព AI របស់នាយកដ្ឋាននឹងត្រូវបានបង្កើតឡើង និងដាក់ឱ្យប្រើប្រាស់ ដែលបុគ្គលិកពាក់ព័ន្ធមានការយល់ដឹងសមស្របអំពីបច្ចេកវិទ្យា ដំណើរការអភិវឌ្ឍន៍ និងវិធីសាស្រ្តប្រតិបត្តិការដែលអនុវត្តចំពោះសមត្ថភាព AI រួមទាំងវិធីសាស្រ្តដែលមានតម្លាភាព និងសវនកម្ម ប្រភពទិន្នន័យ និងនីតិវិធីរចនា និងឯកសារ។
- អាចជឿទុកចិត្តបាន: សមត្ថភាព AI របស់នាយកដ្ឋាននឹងមានការប្រើប្រាស់ច្បាស់លាស់ និងច្បាស់លាស់ ហើយសុវត្ថិភាព សុវត្ថិភាព និងប្រសិទ្ធភាពនៃសមត្ថភាពទាំងនោះនឹងត្រូវឆ្លងកាត់ការធ្វើតេស្ត និងការធានានៅក្នុងការប្រើប្រាស់ដែលបានកំណត់នៅទូទាំងវដ្តជីវិតរបស់ពួកគេ។
- អាចគ្រប់គ្រងបាន៖ នាយកដ្ឋាននឹងរចនា និងវិស្វកម្មសមត្ថភាព AI ដើម្បីបំពេញមុខងារដែលបានគ្រោងទុក ខណៈពេលដែលមានសមត្ថភាពក្នុងការរកឃើញ និងជៀសវាងផលវិបាកដែលមិនចង់បាន និងសមត្ថភាពក្នុងការផ្តាច់ ឬបិទប្រព័ន្ធដែលបានដាក់ពង្រាយ ដែលបង្ហាញពីអាកប្បកិរិយាអចេតនា។
ខ្ញុំក៏បានពិភាក្សាផងដែរអំពីការវិភាគសមូហភាពផ្សេងៗនៃគោលការណ៍សីលធម៌ AI រួមទាំងការគ្របដណ្តប់លើសំណុំដែលបង្កើតឡើងដោយអ្នកស្រាវជ្រាវដែលបានពិនិត្យ និងបង្រួមខ្លឹមសារនៃគោលការណ៍សីលធម៌ AI ជាតិ និងអន្តរជាតិជាច្រើននៅក្នុងក្រដាសដែលមានចំណងជើងថា "ទេសភាពសកលនៃគោលការណ៍ណែនាំសីលធម៌ AI" (បោះពុម្ពផ្សាយ ក្នុង ធម្មជាតិ) ហើយការគ្របដណ្តប់របស់ខ្ញុំរុករកនៅ តំណភ្ជាប់នៅទីនេះដែលនាំទៅដល់បញ្ជីគន្លឹះនេះ៖
- តម្លាភាព
- យុត្តិធម៌ និងយុត្តិធម៌
- ភាពមិនអាក្រក់
- ការទទួលខុសត្រូវ
- ភាពឯកជន
- អត្ថប្រយោជន៍
- សេរីភាព និងស្វ័យភាព
- ការជឿទុកចិត្ត
- និរន្តរភាព
- សេចក្តីថ្លៃថ្នូរ
- សាមគ្គីភាព
ដូចដែលអ្នកអាចទាយដោយផ្ទាល់ ការព្យាយាមកំណត់ចំណុចជាក់លាក់នៃគោលការណ៍ទាំងនេះអាចជារឿងពិបាកធ្វើណាស់។ កាន់តែពិសេសជាងនេះទៅទៀត ការខិតខំប្រឹងប្រែងដើម្បីបង្វែរគោលការណ៍ដ៏ទូលំទូលាយទាំងនោះទៅជាអ្វីដែលជាក់ស្តែង និងលម្អិតគ្រប់គ្រាន់ដើម្បីប្រើប្រាស់នៅពេលបង្កើតប្រព័ន្ធ AI ក៏ជាចំណុចពិបាកមួយក្នុងការបំបែក។ វាជាការងាយស្រួលក្នុងការធ្វើការគ្រវីដៃខ្លះៗអំពីអ្វីដែល AI Ethics សិក្ខាបទគឺ និងរបៀបដែលពួកគេគួរត្រូវបានសង្កេតជាទូទៅ ខណៈពេលដែលវាជាស្ថានភាពស្មុគស្មាញជាងនៅក្នុង AI coding ដែលត្រូវតែជាកៅស៊ូពិតប្រាកដដែលជួបនឹងផ្លូវ។
គោលការណ៍ក្រមសីលធម៌ AI នឹងត្រូវប្រើប្រាស់ដោយអ្នកអភិវឌ្ឍន៍ AI រួមជាមួយនឹងអ្នកដែលគ្រប់គ្រងកិច្ចខិតខំប្រឹងប្រែងក្នុងការអភិវឌ្ឍន៍ AI និងសូម្បីតែអ្នកដែលនៅទីបំផុតអនុវត្ត និងថែទាំប្រព័ន្ធ AI ។ ភាគីពាក់ព័ន្ធទាំងអស់នៅទូទាំងវដ្តជីវិត AI នៃការអភិវឌ្ឍន៍ និងការប្រើប្រាស់ត្រូវបានពិចារណាក្នុងវិសាលភាពនៃការគោរពតាមបទដ្ឋានដែលត្រូវបានបង្កើតឡើងនៃ Ethical AI ។ នេះគឺជាការគូសបញ្ជាក់ដ៏សំខាន់មួយចាប់តាំងពីការសន្មត់ធម្មតាគឺថា "មានតែអ្នកសរសេរកូដ" ឬអ្នកដែលកម្មវិធី AI ប៉ុណ្ណោះដែលត្រូវប្រកាន់ខ្ជាប់នូវគោលគំនិតសីលធម៌របស់ AI ។ ដូចដែលបានបញ្ជាក់រួចមកហើយ វាត្រូវការភូមិមួយដើម្បីបង្កើត និងអនុវត្ត AI ហើយភូមិទាំងមូលត្រូវតែគោរព និងគោរពតាមសិក្ខាបទ AI ។
មូលដ្ឋាននៃសិក្ខាបទក្រមសីលធម៌ AI សំខាន់ៗទាំងនោះ គឺជាធម្មជាតិដ៏អាក្រក់នៃ AI លំអៀង។
ដូចគ្នានឹងសន្លឹកបៀដែរ វាប្រាកដជាល្អប្រសិនបើយើងអាចដាក់បញ្ចូលគ្នានូវភាពលំអៀងរបស់ AI ចូលទៅក្នុងសំណុំនៃ "ឈុត" ឬប្រភេទ។ ជាការពិត ឯកសារ NIST ផ្តល់នូវការដាក់ជាក្រុមដែលបានស្នើ។
ប្រភេទធំៗចំនួនបីកំពុងត្រូវបានស្នើឡើង៖
1) ភាពលំអៀងជាប្រព័ន្ធ
2) ភាពលំអៀងផ្នែកស្ថិតិនិងការគណនា
៣) ភាពលំអៀងរបស់មនុស្ស
ថាតើភាពលំអៀងរបស់ AI ទាំងអស់សមយ៉ាងត្រឹមត្រូវនៅក្នុងប្រភេទមួយក្នុងចំណោមប្រភេទទាំងបីនោះ គឺពិតជាអ្វីដែលត្រូវយកមកពិចារណា។ អ្នកប្រាកដជាអាចប្រកែកបានថាភាពលំអៀង AI ខ្លះធ្លាក់ទៅក្នុងប្រភេទមួយ ពីរ ឬទាំងបីក្នុងពេលតែមួយ។ លើសពីនេះទៅទៀត អ្នកអាចនឹងអះអាងថាប្រភេទច្រើនទៀតសមនឹងត្រូវលើកឡើងដូចជាក្រុមទីបួន ទីប្រាំ ទីប្រាំមួយ ឬច្រើនទៀតនៃក្រុម។
ខ្ញុំសង្ឃឹមថានោះជាអ្វីដែលអ្នកកំពុងគិត ពីព្រោះយើងត្រូវការឱ្យអ្នកគ្រប់គ្នាចូលរួមក្នុងការជួយរៀបចំស្តង់ដារទាំងនេះ។ ប្រសិនបើអ្នកត្រូវបានបំផុសគំនិតជាមួយនឹងវិធីដែលស្ដង់ដារទាំងនេះត្រូវបានបង្កើតឡើងជាលើកដំបូង ខ្ញុំសូមជំរុញឱ្យអ្នកបង្វែរថាមពលនោះ ទៅជាការជួយដល់ពួកយើងក្នុងការធ្វើឱ្យស្ដង់ដារទាំងនេះរឹងមាំ និងពេញលេញតាមដែលពួកគេអាចឆ្លាក់បាន។
សម្រាប់ពេលនេះ យើងអាចពិនិត្យមើលកាន់តែដិតដល់នូវប្រភេទចំនួនបីដែលបានស្នើឡើង ហើយមើលថាតើដៃប្រភេទណាដែលយើងត្រូវបានដោះស្រាយរហូតមកដល់ពេលនេះ (បាទ ខ្ញុំនឹងបន្តប្រើការប្រៀបធៀបទៅនឹងសន្លឹកបៀដែលធ្វើដូច្នេះ។ ពេញមួយផ្នែកនៃអត្ថបទដែលបានសរសេរនេះ អ្នកអាចភ្នាល់ប្រាក់ដុល្លារខាងក្រោមរបស់អ្នកលើ សន្លឹកអាត់ដែលមិនលាក់កំបាំងនៃប្រធានបទនេះ)។
តើការសំដៅទៅលើភាពលំអៀងប្រព័ន្ធមានន័យដូចម្តេច?
នេះជាអ្វីដែលឯកសារ NIST និយាយថា៖ “ភាពលំអៀងជាប្រព័ន្ធកើតឡើងពីនីតិវិធី និងការអនុវត្តរបស់ស្ថាប័នជាក់លាក់ ដែលប្រតិបត្តិការក្នុងវិធីដែលនាំឱ្យក្រុមសង្គមមួយចំនួនទទួលបានអត្ថប្រយោជន៍ ឬពេញចិត្ត ហើយអ្នកផ្សេងទៀតត្រូវរងការមិនពេញចិត្ត ឬទម្លាក់តម្លៃ។ នេះមិនចាំបាច់ជាលទ្ធផលនៃការរើសអើងឬការរើសអើងដោយមនសិការណាមួយនោះទេ ប៉ុន្តែជាជាងភាគច្រើនដែលអនុវត្តតាមច្បាប់ ឬបទដ្ឋានដែលមានស្រាប់។ ការរើសអើងជាតិសាសន៍តាមស្ថាប័ន និងការរួមភេទគឺជាឧទាហរណ៍ទូទៅបំផុត” (ចំណាំថានេះគ្រាន់តែជាការដកស្រង់ខ្លីប៉ុណ្ណោះ ហើយអ្នកអានត្រូវបានលើកទឹកចិត្តឱ្យឃើញការពន្យល់ពេញលេញ)។
AI ចូលមកក្នុងការលាយឡំនៃភាពលំអៀងជាប្រព័ន្ធ ដោយផ្តល់មធ្យោបាយបញ្ជូន និងអនុវត្តភាពលំអៀងទាំងនោះក្នុងកម្មវិធីដែលមានមូលដ្ឋានលើ AI។ នៅពេលណាដែលអ្នកប្រើកម្មវិធីដែលបញ្ចូល AI សម្រាប់អ្វីដែលអ្នកដឹង វាអាចមានការលំអៀងមួយចំនួនដែលត្រូវបានបញ្ចូលទៅក្នុងប្រព័ន្ធរួចហើយតាមរយៈក្រុមហ៊ុន និងការអនុវត្តឧស្សាហកម្មដែលនាំទៅដល់ការបង្កើត AI ។ យោងតាមការសិក្សារបស់ NIST៖ "ភាពលំអៀងទាំងនេះមាននៅក្នុងសំណុំទិន្នន័យដែលប្រើក្នុង AI និងបទដ្ឋានស្ថាប័ន ការអនុវត្ត និងដំណើរការឆ្លងកាត់វដ្តជីវិតរបស់ AI និងនៅក្នុងវប្បធម៌ និងសង្គមកាន់តែទូលំទូលាយ។"
បន្ទាប់មក ពិចារណាលើសំណុំនៃភាពលំអៀងដែលត្រូវបានដាក់ស្លាកថាជា ភាពលំអៀងផ្នែកស្ថិតិ និងការគណនា។
ឯកសារ NIST ចែងអំពីរឿងនេះ៖ “ភាពលំអៀងផ្នែកស្ថិតិ និងការគណនាកើតចេញពីកំហុសដែលកើតឡើងនៅពេលដែលគំរូមិនមែនជាតំណាងនៃចំនួនប្រជាជន។ ភាពលំអៀងទាំងនេះកើតឡើងពីប្រព័ន្ធដែលផ្ទុយពីកំហុសចៃដន្យ ហើយអាចកើតឡើងក្នុងករណីដែលគ្មានការរើសអើង ភាពលំអៀង ឬចេតនារើសអើង។ នៅក្នុងប្រព័ន្ធ AI ភាពលំអៀងទាំងនេះមានវត្តមាននៅក្នុងសំណុំទិន្នន័យ និងដំណើរការក្បួនដោះស្រាយដែលប្រើក្នុងការអភិវឌ្ឍន៍កម្មវិធី AI ហើយជារឿយៗកើតឡើងនៅពេលដែលក្បួនដោះស្រាយត្រូវបានបណ្តុះបណ្តាលលើប្រភេទទិន្នន័យមួយ ហើយមិនអាចបន្ថែមលើសពីទិន្នន័យទាំងនោះបានទេ។
ប្រភេទនៃភាពលំអៀងផ្នែកស្ថិតិ និងការគណនានេះជារឿយៗត្រូវបានចម្អិនទៅក្នុងប្រព័ន្ធ AI ដែលប្រើ Machine Learning (ML) និង Deep Learning (DL)។ ការលើកឡើងនូវបញ្ហាដ៏ធំធេងនៃ ML/DL សហសម័យ ទាមទារឱ្យមានទំនាក់ទំនងផ្នែកពាក់ព័ន្ធអំពីអ្វីដែល AI គឺ និងអ្វីដែល ML/DL ជាអ្វី។
សូមប្រាកដថាយើងនៅលើទំព័រដូចគ្នាអំពីធម្មជាតិនៃ AI នាពេលបច្ចុប្បន្ននេះ។
មិនមាន AI ណាមួយដែលប្រកបដោយមនោសញ្ចេតនាទេ។ យើងមិនមាននេះទេ។ យើងមិនដឹងថាតើ AI អាចនឹងកើតឡើងឬអត់នោះទេ។ គ្មាននរណាម្នាក់អាចទស្សន៍ទាយបានច្បាស់ថា តើយើងនឹងសម្រេចបាន AI អារម្មណ៍ ឬថាតើ AI អារម្មណ៍នឹងកើតឡើងដោយអព្ភូតហេតុដោយឯកឯងក្នុងទម្រង់នៃ supernova នៃការយល់ដឹងតាមការគណនា (ជាទូទៅគេហៅថាឯកវចនៈ សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ).
ប្រភេទនៃ AI ដែលខ្ញុំកំពុងផ្តោតលើមាន AI ដែលមិនមានអារម្មណ៍ដែលយើងមានសព្វថ្ងៃនេះ។ ប្រសិនបើយើងចង់ស្មានទុកជាមុន អ្នកផ្ញើ AI ការពិភាក្សានេះអាចទៅក្នុងទិសដៅខុសគ្នាយ៉ាងខ្លាំង។ AI ដែលមានអារម្មណ៍ថានឹងមានគុណភាពមនុស្ស។ អ្នកនឹងត្រូវពិចារណាថា AI អារម្មណ៍គឺស្មើនឹងការយល់ដឹងរបស់មនុស្ស។ ជាងនេះទៅទៀត ចាប់តាំងពីមានការប៉ាន់ស្មានខ្លះថា យើងប្រហែលជាមាន AI ដ៏វៃឆ្លាតទំនើប ដូច្នេះហើយទើបអាចសន្និដ្ឋានបានថា AI បែបនេះអាចមានភាពវៃឆ្លាតជាងមនុស្សទៅទៀត (សម្រាប់ការរុករករបស់ខ្ញុំនូវ AI ឆ្លាតវៃទំនើបជាលទ្ធភាព សូមមើល ការគ្របដណ្តប់នៅទីនេះ).
ចូរយើងរក្សាអ្វីៗឱ្យកាន់តែជ្រៅនៅលើផែនដី ហើយពិចារណាអំពី AI ដែលមិនងាយយល់នាពេលបច្ចុប្បន្ននេះ។
ត្រូវដឹងថា AI នាពេលបច្ចុប្បន្ននេះ មិនអាច "គិត" តាមរបៀបណាមួយបានដូចការគិតរបស់មនុស្សនោះទេ។ នៅពេលអ្នកធ្វើអន្តរកម្មជាមួយ Alexa ឬ Siri សមត្ថភាពសន្ទនាអាចហាក់ដូចជាស្រដៀងនឹងសមត្ថភាពរបស់មនុស្ស ប៉ុន្តែការពិតគឺថាវាមានលក្ខណៈគណនា និងខ្វះការយល់ដឹងរបស់មនុស្ស។ យុគសម័យចុងក្រោយបង្អស់របស់ AI បានប្រើប្រាស់យ៉ាងទូលំទូលាយនូវ Machine Learning និង Deep Learning ដែលមានឥទ្ធិពលលើការផ្គូផ្គងលំនាំគណនា។ នេះបាននាំឱ្យមានប្រព័ន្ធ AI ដែលមានរូបរាងដូចមនុស្ស។ ទន្ទឹមនឹងនេះដែរ សព្វថ្ងៃនេះមិនមាន AI ណាមួយដែលមានលក្ខណៈសមហេតុសមផលទេ ហើយក៏មិនមានការងឿងឆ្ងល់នៃការយល់ដឹងនៃការគិតរបស់មនុស្សរឹងមាំដែរ។
ML/DL គឺជាទម្រង់នៃការផ្គូផ្គងលំនាំគណនា។ វិធីសាស្រ្តធម្មតាគឺអ្នកប្រមូលផ្តុំទិន្នន័យអំពីកិច្ចការធ្វើការសម្រេចចិត្ត។ អ្នកបញ្ចូលទិន្នន័យទៅក្នុងម៉ូដែលកុំព្យូទ័រ ML/DL ។ គំរូទាំងនោះស្វែងរកលំនាំគណិតវិទ្យា។ បន្ទាប់ពីស្វែងរកគំរូបែបនេះ ប្រសិនបើរកឃើញនោះ ប្រព័ន្ធ AI នឹងប្រើលំនាំទាំងនោះនៅពេលជួបទិន្នន័យថ្មី។ នៅពេលបង្ហាញទិន្នន័យថ្មី គំរូដែលផ្អែកលើ "ទិន្នន័យចាស់" ឬទិន្នន័យប្រវត្តិសាស្រ្តត្រូវបានអនុវត្តដើម្បីបង្ហាញការសម្រេចចិត្តបច្ចុប្បន្ន។
ខ្ញុំគិតថាអ្នកអាចទាយថាតើនេះកំពុងទៅណា។ ប្រសិនបើមនុស្សដែលបានបង្កើតគំរូតាមការសម្រេចចិត្តបានរួមបញ្ចូលការលំអៀងដែលមិនឆ្អែតឆ្អន់ នោះការខុសឆ្គងគឺថាទិន្នន័យបានឆ្លុះបញ្ចាំងពីចំណុចនេះតាមវិធីស្រាលៗ ប៉ុន្តែសំខាន់។ ការផ្គូផ្គងគំរូការសិក្សាតាមម៉ាស៊ីន ឬការរៀនជ្រៅនឹងព្យាយាមធ្វើត្រាប់តាមទិន្នន័យតាមគណិតវិទ្យា។ មិនមានភាពដូចគ្នានៃសុភវិនិច្ឆ័យ ឬទិដ្ឋភាពមនោសញ្ចេតនាផ្សេងទៀតនៃការបង្កើតគំរូដែលបង្កើតដោយ AI ក្នុងមួយ។
ជាងនេះទៅទៀត អ្នកអភិវឌ្ឍន៍ AI ប្រហែលជាមិនដឹងពីអ្វីដែលកំពុងកើតឡើងនោះទេ។ គណិតវិទ្យា arcane នៅក្នុង ML/DL អាចធ្វើឱ្យវាពិបាកក្នុងការបំបាត់ភាពលំអៀងដែលលាក់នៅពេលនេះ។ អ្នកនឹងសង្ឃឹមយ៉ាងត្រឹមត្រូវ ហើយរំពឹងថាអ្នកអភិវឌ្ឍន៍ AI នឹងសាកល្បងសម្រាប់ភាពលំអៀងដែលអាចកប់បាន ទោះបីជាវាពិបាកជាងវាក៏ដោយ។ ឱកាសដ៏រឹងមាំមួយមានដែលថា ទោះបីជាមានការធ្វើតេស្តយ៉ាងទូលំទូលាយថានឹងមានភាពលំអៀងនៅតែបង្កប់នៅក្នុងគំរូដែលត្រូវគ្នានឹងគំរូនៃ ML/DL ក៏ដោយ។
អ្នកអាចប្រើសុភាសិតដ៏ល្បីឬមិនល្អខ្លះនៃការចោលសំរាមក្នុងធុងសំរាម។ រឿងនោះគឺថា នេះគឺស្រដៀងទៅនឹងភាពលំអៀងដែលបញ្ចូលទៅក្នុង insidiously ដូចជាភាពលំអៀងដែលលិចចូលទៅក្នុង AI ។ ក្បួនដោះស្រាយការសម្រេចចិត្ត (ADM) នៃ AI axiomatically ក្លាយជាបន្ទុកដោយភាពមិនស្មើគ្នា។
មិនល្អ។
នេះនាំយើងទៅចំណាត់ថ្នាក់ទីបីនៃក្រុម NIST នៃក្រុមបី ជាពិសេសតួនាទីនៃភាពលំអៀងរបស់មនុស្សក្នុងការកើតមាននៃភាពលំអៀង AI ។ នេះជាអ្វីដែលឯកសារ NIST បានបង្ហាញ៖ "ភាពលំអៀងរបស់មនុស្សឆ្លុះបញ្ចាំងពីកំហុសជាប្រព័ន្ធនៅក្នុងគំនិតរបស់មនុស្សដោយផ្អែកលើចំនួនកំណត់នៃគោលការណ៍ heuristic និងការព្យាករណ៍តម្លៃចំពោះប្រតិបត្តិការវិនិច្ឆ័យដ៏សាមញ្ញ។ ភាពលំអៀងទាំងនេះច្រើនតែជាប់ពាក់ព័ន្ធ និងមានទំនោរទាក់ទងទៅនឹងរបៀបដែលបុគ្គល ឬក្រុមយល់ឃើញព័ត៌មាន (ដូចជាលទ្ធផល AI ស្វ័យប្រវត្តិ) ដើម្បីធ្វើការសំរេចចិត្ត ឬបំពេញព័ត៌មានដែលបាត់ ឬមិនស្គាល់។ ភាពលំអៀងទាំងនេះមានវត្តមាននៅក្នុងស្ថាប័ន ក្រុម និងដំណើរការធ្វើការសម្រេចចិត្តជាបុគ្គលនៅទូទាំងវដ្តជីវិតរបស់ AI និងនៅក្នុងការប្រើប្រាស់កម្មវិធី AI ដែលត្រូវបានដាក់ឱ្យដំណើរការ។
ឥឡូវនេះ អ្នកបានទទួលការណែនាំអំពីការឆេះយ៉ាងឆាប់រហ័សដល់បីប្រភេទ។
ខ្ញុំចង់ចែករំលែកជាមួយអ្នកនូវអាហារបន្ថែមមួយចំនួនសម្រាប់ការគិត ដូចដែលបានបង្ហាញនៅក្នុងឯកសារ NIST។ គំនូសតាងមួយនៅក្នុងការនិទានរឿងរបស់ពួកគេផ្តល់នូវសេចក្តីសង្ខេបដ៏មានប្រយោជន៍នៃសំណួរ និងការពិចារណាសំខាន់ៗ ដែលបង្កប់លើសំណុំនីមួយៗនៃ AI លំអៀងទាំងបី។ ខ្ញុំរាយបញ្ជីពួកវានៅទីនេះសម្រាប់ភាពងាយស្រួលនៃឯកសារយោង និងការកែលម្អរបស់អ្នក។
#1: ភាពលំអៀងជាប្រព័ន្ធ
- អ្នកណាគេរាប់ ហើយអ្នកណាមិនរាប់?
- បញ្ហាជាមួយអថេរមិនទាន់ឃើញច្បាស់
- តំណាងមិនដល់នៃក្រុមដែលមានកម្រិតទាប
- ស្វ័យប្រវត្តិកម្មនៃវិសមភាព
- ការបង្ហាញតិចតួចក្នុងការកំណត់មុខងារឧបករណ៍ប្រើប្រាស់
- ដំណើរការដែលគាំទ្រភាគច្រើន / ភាគតិច
- ភាពលំអៀងនៃវប្បធម៌នៅក្នុងមុខងារគោលបំណង (ល្អបំផុតសម្រាប់បុគ្គល និងល្អបំផុតសម្រាប់ក្រុម)
- តើយើងដឹងថាអ្វីត្រូវដោយរបៀបណា?
- ការពង្រឹងវិសមភាព (ក្រុមត្រូវបានរងផលប៉ះពាល់កាន់តែច្រើនជាមួយនឹងការប្រើប្រាស់កម្រិតខ្ពស់នៃ AI)
- ប៉ូលីសទស្សន៍ទាយមានផលប៉ះពាល់អវិជ្ជមានច្រើនជាង
- ការទទួលយកយ៉ាងទូលំទូលាយនៃការចែករំលែកជិះ/រថយន្តបើកបរដោយខ្លួនឯង/ល។ អាចផ្លាស់ប្តូរគោលនយោបាយដែលប៉ះពាល់ដល់ចំនួនប្រជាជនដោយផ្អែកលើការប្រើប្រាស់
#២៖ ភាពលំអៀងផ្នែកស្ថិតិ និងការគណនា
- អ្នកណាគេរាប់ ហើយអ្នកណាមិនរាប់?
- ការជ្រើសរើសគំរូ និងការលំអៀង
- ការប្រើប្រាស់អថេរប្រូកស៊ី ព្រោះវាងាយស្រួលវាស់វែង
- ភាពលំអៀងស្វ័យប្រវត្តិកម្ម
- មាត្រដ្ឋាន Likert (ពីប្រភេទទៅធម្មតាទៅខា)
- មិនលីនេអ៊ែរទល់នឹងលីនេអ៊ែរ
- ភាពច្របូកច្របល់អេកូឡូស៊ី
- បង្រួមអប្បបរមានៃបទដ្ឋាន L1 ធៀបនឹង L2
- ការលំបាកទូទៅក្នុងការកំណត់បរិមាណបាតុភូតបរិបទ
- តើយើងដឹងថាអ្វីត្រូវដោយរបៀបណា?
- កង្វះការបញ្ជាក់ឆ្លងដែនគ្រប់គ្រាន់
- ភាពលំអៀងនៃការរស់រានមានជីវិត
- ការលំបាកជាមួយភាពយុត្តិធម៌
#៣៖ ភាពលំអៀងរបស់មនុស្ស
- អ្នកណាគេរាប់ ហើយអ្នកណាមិនរាប់?
- ភាពលំអៀងនៃការសង្កេត (ឥទ្ធិពលពន្លឺតាមផ្លូវ)
- ភាពលំអៀងដែលអាចរកបាន (យុថ្កា)
- កំហុស McNamara
- ការគិតជាក្រុមនាំទៅរកជម្រើសតូចចង្អៀត
- ឥទ្ធិពល Rashomon នាំឱ្យមានការតស៊ូមតិតាមប្រធានបទ
- ភាពលំបាកក្នុងការកំណត់បរិមាណអាចនាំទៅរកភាពខុសឆ្គងរបស់ McNamara
- តើយើងដឹងថាអ្វីត្រូវដោយរបៀបណា?
- ភាពលំអៀងនៃការបញ្ជាក់
- ភាពលំអៀងស្វ័យប្រវត្តិកម្ម
នៅចំនុចប្រសព្វនៃការពិភាក្សាដ៏មានទម្ងន់នេះ ខ្ញុំចង់ភ្នាល់ថា អ្នកពិតជាចង់បានឧទាហរណ៍មួយចំនួនដែលអាចបង្ហាញពីការលំអៀង AI បីប្រភេទ។ មានឧទាហរណ៍ដ៏ពិសេស និងពេញនិយមមួយ ដែលនៅជិតបេះដូងខ្ញុំ។ អ្នកឃើញហើយ ក្នុងសមត្ថភាពរបស់ខ្ញុំក្នុងនាមជាអ្នកជំនាញលើ AI រួមទាំងផលប៉ះពាល់ខាងសីលធម៌ និងផ្នែកច្បាប់ ខ្ញុំត្រូវបានគេសួរជាញឹកញាប់ឱ្យកំណត់ឧទាហរណ៍ជាក់ស្តែងដែលបង្ហាញពីភាពលំបាកនៃក្រមសីលធម៌ AI ដូច្នេះ លក្ខណៈទ្រឹស្តីខ្លះនៃប្រធានបទអាចយល់បានកាន់តែងាយស្រួល។ ផ្នែកមួយដែលរំជើបរំជួលបំផុតដែលបង្ហាញយ៉ាងច្បាស់អំពីក្រមសីលធម៌ AI នេះគឺការមកដល់នៃរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដដែលមានមូលដ្ឋានលើ AI ។ វានឹងបម្រើជាករណីប្រើប្រាស់ដ៏ងាយស្រួល ឬជាឧទាហរណ៍សម្រាប់ការពិភាក្សាយ៉ាងទូលំទូលាយលើប្រធានបទ។
ខាងក្រោមនេះជាសំណួរដែលគួរអោយចាប់អារម្មណ៍ដែលគួរពិចារណា៖ តើការមកដល់នៃរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដដែលមានមូលដ្ឋានលើ AI បំភ្លឺអ្វីអំពីប្រភេទ AI ទាំងបីដែលបានស្នើឡើង ហើយប្រសិនបើដូច្នេះ តើនេះបង្ហាញអ្វីខ្លះ?
ទុកពេលឱ្យខ្ញុំមួយភ្លែតដើម្បីស្រាយសំណួរ។
ជាដំបូង សូមចំណាំថា មិនមានអ្នកបើកបរមនុស្សពាក់ព័ន្ធនឹងរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដនោះទេ។ សូមចងចាំថារថយន្តដែលបើកបរដោយខ្លួនឯងពិតប្រាកដគឺត្រូវបានជំរុញតាមរយៈប្រព័ន្ធបើកបរ AI ។ មិនចាំបាច់មានអ្នកបើកបរមនុស្សនៅកង់នោះទេ ហើយក៏មិនមានការផ្តល់ឲ្យមនុស្សដើម្បីបើករថយន្តដែរ។ សម្រាប់ការគ្របដណ្តប់យ៉ាងទូលំទូលាយ និងបន្តរបស់ខ្ញុំនៃយានយន្តស្វយ័ត (AVs) និងជាពិសេសរថយន្តដែលបើកបរដោយខ្លួនឯង សូមមើល តំណភ្ជាប់នៅទីនេះ.
ខ្ញុំចង់បញ្ជាក់បន្ថែមទៀតថាតើវាមានន័យយ៉ាងម៉េចនៅពេលខ្ញុំនិយាយអំពីឡានបើកបរដោយខ្លួនឯង។
ស្វែងយល់ពីកម្រិតនៃរថយន្តបើកបរដោយខ្លួនឯង
ក្នុងនាមជាការបញ្ជាក់មួយរថយន្តបើកបរដោយខ្លួនឯងគឺជាប្រភេទមួយដែលអាយអេសបើកបររថយន្តដោយខ្លួនឯងហើយមិនមានជំនួយពីមនុស្សទេក្នុងពេលបើកបរ។
យានជំនិះគ្មានអ្នកបើកបរទាំងនេះត្រូវបានចាត់ទុកថាជាកម្រិតទី 4 និងកម្រិត 5 (សូមមើលការពន្យល់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ) ខណៈពេលដែលរថយន្តដែលតម្រូវឱ្យអ្នកបើកបរមនុស្សរួមគ្នាចែករំលែកការប្រឹងប្រែងបើកបរជាធម្មតាត្រូវបានចាត់ទុកថានៅកម្រិត 2 ឬកម្រិត 3 ។ រថយន្តដែលរួមគ្នាចែករំលែកភារកិច្ចបើកបរត្រូវបានពិពណ៌នាថាជាពាក់កណ្តាលស្វយ័ត ហើយជាធម្មតាមានភាពខុសគ្នានៃ កម្មវិធីបន្ថែមដោយស្វ័យប្រវត្តិដែលត្រូវបានគេហៅថា ADAS (Advanced Driver-Assistance Systems)។
មិនទាន់មានរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដនៅកម្រិតទី 5 នៅឡើយទេ ហើយយើងក៏មិនទាន់ដឹងថា តើវាអាចសម្រេចបានដែរ ឬអត់នោះទេ ហើយវានឹងចំណាយពេលយូរប៉ុណ្ណាដើម្បីទៅដល់ទីនោះ។
ទន្ទឹមនឹងនេះ កិច្ចខិតខំប្រឹងប្រែងកម្រិតទី 4 កំពុងព្យាយាមបន្តិចម្តងៗ ដើម្បីទទួលបានការអូសទាញមួយចំនួន ដោយឆ្លងកាត់ការសាកល្បងផ្លូវសាធារណៈតូចចង្អៀត និងជ្រើសរើស ទោះបីជាមានភាពចម្រូងចម្រាសលើថាតើការធ្វើតេស្តនេះគួរតែត្រូវបានអនុញ្ញាតក្នុងម្នាក់ៗក៏ដោយ (យើងទាំងអស់គ្នាគឺជាជ្រូកហ្គីណេដែលមានជីវិត ឬស្លាប់នៅក្នុងការពិសោធន៍មួយ។ កើតឡើងនៅលើផ្លូវហាយវេ និងផ្លូវរបស់យើង អ្នកខ្លះឈ្លោះគ្នា សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ).
ដោយសាររថយន្តពាក់កណ្តាលស្វ័យភាពតម្រូវឱ្យមានអ្នកបើកបរជាមនុស្សការអនុម័តប្រភេទរថយន្តទាំងនោះនឹងមិនខុសពីការបើកបរយានយន្តធម្មតាទេដូច្នេះមិនមានអ្វីថ្មីទេសម្រាប់និយាយអំពីប្រធានបទនេះ (ទោះបីជាអ្នកនឹងឃើញក៏ដោយ) ក្នុងពេលតែមួយចំនុចដែលបានធ្វើជាទូទៅអាចអនុវត្តបាន) ។
ចំពោះរថយន្តពាក់កណ្តាលស្វយ័តវាជាការសំខាន់ដែលសាធារណជនត្រូវដឹងជាមុនអំពីទិដ្ឋភាពគួរឱ្យព្រួយបារម្ភដែលកំពុងកើតឡើងនាពេលថ្មីៗនេះពោលគឺទោះបីអ្នកបើកបរមនុស្សទាំងនោះនៅតែបន្តបង្ហោះវីដេអូខ្លួនពួកគេដេកលង់លក់ក្នុងកង់រថយន្តកម្រិត ២ ឬលេខ ៣ ក៏ដោយ។ យើងទាំងអស់គ្នាត្រូវចៀសវាងកុំអោយវង្វេងស្មារតីជឿថាអ្នកបើកបរអាចយកការចាប់អារម្មណ៍របស់ពួកគេចេញពីភារកិច្ចបើកបរនៅពេលបើកបររថយន្តពាក់កណ្តាលស្វយ័ត។
អ្នកគឺជាអ្នកទទួលខុសត្រូវចំពោះសកម្មភាពបើកបររបស់យានយន្តដោយមិនគិតពីចំនួនស្វ័យប្រវត្តិកម្មដែលអាចត្រូវបានបោះចូលទៅក្នុងកម្រិត ២ ឬកម្រិត ៣ ។
រថយន្តបើកបរដោយខ្លួនឯង និង AI Biases
សម្រាប់យានយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដកម្រិតទី ៤ និងទី ៥ នឹងមិនមានអ្នកបើកបរជាមនុស្សចូលរួមក្នុងការងារបើកបរឡើយ។
អ្នកកាន់កាប់ទាំងអស់នឹងក្លាយជាអ្នកដំណើរ។
អេអាយអេកំពុងធ្វើការបើកបរ។
ទិដ្ឋភាពមួយដែលត្រូវពិភាក្សាភ្លាមៗទាក់ទងនឹងការពិតដែលថាអេ។ អាយ។ អិ។ ពាក់ព័ន្ធនឹងប្រព័ន្ធបើកបរ AI សព្វថ្ងៃមិនងាយស្រួលទេ។ និយាយម៉្យាងទៀតអេអាយគឺទាំងអស់គ្នាជាកម្មវិធីរួមបញ្ចូលគ្នានៃកម្មវិធីនិងក្បួនដោះស្រាយដែលផ្អែកលើកុំព្យូទ័រហើយភាគច្រើនប្រាកដជាមិនអាចវែកញែកតាមរបៀបដែលមនុស្សអាចធ្វើបានឡើយ។
ហេតុអ្វីបានជាការសង្កត់ធ្ងន់បន្ថែមអំពីអេអាយមិនមានអារម្មណ៍?
ដោយសារតែខ្ញុំចង់គូសបញ្ជាក់ថានៅពេលពិភាក្សាអំពីតួនាទីរបស់ប្រព័ន្ធបើកបរ AI ខ្ញុំមិនបានបង្ហាញពីគុណសម្បត្តិរបស់មនុស្សទៅនឹង AI ទេ។ សូមមេត្តាជ្រាបថាមានទំនោរដែលកំពុងបន្តនិងមានគ្រោះថ្នាក់នាពេលបច្ចុប្បន្ននេះចំពោះមនុស្សវិទូ។ បើនិយាយអោយចំទៅមនុស្សកំពុងតែផ្តល់នូវមនោសញ្ចេតនាស្រដៀងនឹងមនុស្សទៅនឹងអេអាយអេសព្វថ្ងៃនេះទោះបីជាការពិតដែលមិនអាចប្រកែកបាននិងមិនអាចកាត់ថ្លៃបានថាពុំមាន AI បែបនេះនៅឡើយទេ។
ជាមួយនឹងការបំភ្លឺនោះអ្នកអាចស្មានថាប្រព័ន្ធបើកបរ AI នឹងមិនមាន“ ដឹង” ពីលក្ខណៈនៃការបើកបរ។ ការបើកបរនិងអ្វីទាំងអស់ដែលវាតម្រូវឱ្យមានកម្មវិធីជាផ្នែកមួយនៃផ្នែករឹងនិងផ្នែកទន់នៃឡានបើកបរដោយខ្លួនឯង។
សូមមុជចូលទៅក្នុងទិដ្ឋភាពជាច្រើនដែលបានមកលេងលើប្រធានបទនេះ។
ជាដំបូង វាជារឿងសំខាន់ដែលត្រូវដឹងថា មិនមែនរថយន្តដែលបើកបរដោយខ្លួនឯង AI ទាំងអស់សុទ្ធតែដូចគ្នានោះទេ។ ក្រុមហ៊ុនផលិតរថយន្តនីមួយៗ និងក្រុមហ៊ុនបច្ចេកវិទ្យាបើកបរដោយខ្លួនឯងកំពុងប្រើប្រាស់វិធីសាស្រ្តរបស់ខ្លួនក្នុងការរៀបចំរថយន្តដែលបើកបរដោយស្វ័យប្រវត្តិ។ ដូចនេះ វាពិបាកក្នុងការធ្វើសេចក្តីថ្លែងការណ៍ដ៏ទូលំទូលាយអំពីអ្វីដែលប្រព័ន្ធបើកបរ AI នឹងធ្វើឬមិនធ្វើ។
លើសពីនេះទៅទៀតនៅពេលណាដែលបញ្ជាក់ថាប្រព័ន្ធបើកបរអេអាយមិនធ្វើអ្វីជាក់លាក់ណាមួយនោះនៅពេលក្រោយនេះអាចត្រូវបានអ្នកអភិវឌ្developersន៍យកឈ្នះដែលតាមពិតកម្មវិធីកុំព្យូទ័រអាចធ្វើបាន។ មួយជំហានម្តង ៗ ប្រព័ន្ធបើកបរអេអាយអាយកំពុងត្រូវបានកែលម្អនិងពង្រីកបន្តិចម្តង ៗ ។ ការដាក់កំហិតដែលមានស្រាប់នៅថ្ងៃនេះប្រហែលជាលែងមាននៅក្នុងការបង្កើតឡើងវិញឬកំណែប្រព័ន្ធនាពេលអនាគត។
ខ្ញុំជឿជាក់ថាផ្តល់នូវការព្រមានតិចតួចគ្រប់គ្រាន់ដើម្បីបញ្ជាក់ពីអ្វីដែលខ្ញុំចង់ទាក់ទង។
ឥឡូវនេះយើងកំពុងចាប់ផ្តើមដើម្បីធ្វើការជ្រមុជទឹកយ៉ាងជ្រៅទៅក្នុងរថយន្តដែលបើកបរដោយខ្លួនឯង និងលទ្ធភាពនៃ Ethical AI ដែលរួមបញ្ចូលទាំងបីប្រភេទនៃភាពលំអៀង AI ។
ស្រមៃមើលថារថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI កំពុងដំណើរការនៅលើផ្លូវសង្កាត់របស់អ្នក ហើយហាក់ដូចជាកំពុងបើកបរដោយសុវត្ថិភាព។ ដំបូងឡើយ អ្នកបានយកចិត្តទុកដាក់ជាពិសេសរាល់ពេលដែលអ្នកអាចមើលឃើញរថយន្តបើកបរដោយខ្លួនឯង។ យានជំនិះស្វយ័តនេះបានលេចធ្លោជាមួយនឹងឧបករណ៍ចាប់សញ្ញាអេឡិចត្រូនិចដែលរួមមានកាមេរ៉ាវីដេអូ អង្គភាពរ៉ាដា ឧបករណ៍ LIDAR និងអ្វីៗផ្សេងទៀត។ បន្ទាប់ពីជាច្រើនសប្តាហ៍នៃរថយន្តបើកបរដោយខ្លួនឯងបានធ្វើដំណើរជុំវិញសហគមន៍របស់អ្នក ឥឡូវនេះអ្នកស្ទើរតែមិនកត់សំគាល់វាទេ។ តាមដែលអ្នកបារម្ភ វាគ្រាន់តែជាឡានមួយទៀតនៅលើផ្លូវសាធារណៈដែលមមាញឹករួចទៅហើយ។
ក្រែងអ្នកគិតថាវាមិនអាចទៅរួច ឬមិនអាចយល់បានក្នុងការស៊ាំនឹងការឃើញរថយន្តដែលបើកបរដោយខ្លួនឯង ខ្ញុំបានសរសេរជាញឹកញាប់អំពីរបៀបដែលអ្នកស្រុកដែលស្ថិតក្នុងវិសាលភាពនៃការសាកល្បងរថយន្តបើកបរដោយខ្លួនឯងបានស៊ាំជាបណ្តើរៗដើម្បីឃើញរថយន្តដែលមានការរីកចម្រើន។ មើលការវិភាគរបស់ខ្ញុំនៅ តំណនេះនៅទីនេះ. អ្នកស្រុកជាច្រើននាក់នៅទីបំផុតបានផ្លាស់ប្តូរពីមាត់ស្រែកថ្ងូរ មកឥឡូវនេះបញ្ចេញនូវភាពអផ្សុកយ៉ាងទូលំទូលាយ ដើម្បីបានឃើញរថយន្តដែលបើកបរដោយខ្លួនឯងទាំងនោះ។
ប្រហែលជាមូលហេតុចំបងនៅពេលនេះ ដែលពួកគេអាចសម្គាល់ឃើញយានជំនិះស្វយ័តគឺដោយសារតែកត្តាឆាប់ខឹង និងការហួសចិត្ត។ ប្រព័ន្ធបើកបរ AI ដែលធ្វើឡើងដោយសៀវភៅធ្វើឱ្យប្រាកដថារថយន្តគោរពតាមការកំណត់ល្បឿន និងច្បាប់ផ្លូវទាំងអស់។ សម្រាប់អ្នកបើកបរដ៏មមាញឹកនៅក្នុងរថយន្តបើកបរដោយមនុស្សតាមបែបប្រពៃណីរបស់ពួកគេ អ្នកនឹងមានការធុញទ្រាន់នៅពេលដែលបានជាប់គាំងនៅពីក្រោយរថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI ដែលគោរពច្បាប់យ៉ាងតឹងរ៉ឹង។
នោះជាអ្វីមួយដែលយើងទាំងអស់គ្នាប្រហែលជាត្រូវទម្លាប់ធ្វើ ត្រឹមត្រូវ ឬខុស។
ត្រលប់ទៅរឿងនិទានរបស់យើង។
យើងនឹងពិចារណាបន្ទាប់ថាតើភាពលំអៀងជាប្រព័ន្ធអាចចូលមកលេងក្នុងបរិបទនៃរថយន្តបើកបរដោយខ្លួនឯងយ៉ាងដូចម្តេច។
បណ្ឌិតខ្លះព្រួយបារម្ភខ្លាំងណាស់ថារថយន្តបើកដោយខ្លួនឯងនឹងក្លាយជាខេត្តដែលមានតែអ្នកមាននិងអភិជន។ វាអាចថាតម្លៃនៃការប្រើប្រាស់រថយន្តបើកបរដោយខ្លួនឯងនឹងមានតម្លៃថ្លៃគួរឱ្យខ្លាច។ លុះត្រាតែអ្នកមានលុយច្រើន អ្នកប្រហែលជាមិនបានឃើញខាងក្នុងរថយន្តដែលបើកបរដោយខ្លួនឯងនោះទេ។ អ្នកដែលនឹងប្រើរថយន្តបើកបរដោយខ្លួនឯងនឹងត្រូវក្លាយជាអ្នកមាន។
ដូច្នេះហើយ អ្នកខ្លះបានដាស់តឿនដោយខកចិត្តថាទម្រង់នៃភាពលំអៀងជាប្រព័ន្ធនឹងជ្រាបចូលទៅក្នុងការមកដល់នៃរថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI ។ ប្រព័ន្ធឧស្សាហ៍កម្មយានយន្តស្វ័យប្រវត្តិទាំងមូលនឹងរក្សារថយន្តដែលបើកបរដោយខ្លួនឯងឱ្យរួចផុតពីកណ្ដាប់ដៃរបស់ជនក្រីក្រ ឬអ្នកមានទ្រព្យធនតិច។ នេះប្រហែលជាមិនចាំបាច់ដោយចេតនាហួសហេតុនោះទេ ហើយគ្រាន់តែបង្ហាញថា មធ្យោបាយតែមួយគត់ដែលជឿជាក់ក្នុងការទាញយកបន្ទុកដ៏ថ្លៃថ្លានៃការបង្កើតរថយន្តបើកបរដោយខ្លួនឯងនឹងគិតថ្លៃខ្ពស់ហួសហេតុ។
ប្រសិនបើអ្នកតបវិញថា សព្វថ្ងៃនេះមានការសាកល្បងរថយន្តបើកបរដោយខ្លួនឯង ដែលអនុញ្ញាតឱ្យអ្នកប្រើប្រាស់ប្រចាំថ្ងៃ ដូច្នេះវាហាក់ដូចជាច្បាស់ថាអ្នកមិនចាំបាច់ក្លាយជាអ្នកមាននោះទេ ទឡ្ហីករណ៍នោះគឺថា នេះគឺជាហ្គេមសែលមួយប្រភេទ។ វាគឺ។ ក្រុមហ៊ុនផលិតរថយន្ត និងក្រុមហ៊ុនបច្ចេកវិទ្យាបើកបរដោយខ្លួនឯង ត្រូវបានគេសន្មត់ថាមានឆន្ទៈក្នុងការធ្វើឱ្យវាលេចឡើង ហាក់ដូចជាការចំណាយនឹងមិនមែនជាឧបសគ្គដ៏សំខាន់នោះទេ។ ពួកគេកំពុងធ្វើនេះសម្រាប់គោលបំណងទំនាក់ទំនងសាធារណៈនៅពេលនេះ ហើយនឹងឡើងថ្លៃនៅពេលដែលពួកគេរកឃើញស្នាមជ្រួញ។ អ្នកឃុបឃិត ថែមទាំងអាចអះអាងថា "ជ្រូកហ្គីណេ" ដូចដែលមនុស្សរាល់ថ្ងៃកំពុងត្រូវបានប្រើប្រាស់យ៉ាងសាហាវ ដើម្បីឱ្យអ្នកមានអាចក្លាយជាអ្នកមាន។
ដូច្នេះ ដោយសារបញ្ហាដ៏ចម្រូងចម្រាសនោះ ហើយការដាក់ប្រាក់ពីរសេនរបស់ខ្ញុំលើប្រធានបទដ៏អាក្រក់នេះ ខ្ញុំមិនជឿថារថយន្តដែលបើកបរដោយខ្លួនឯងនឹងមានតម្លៃលើសពីការប្រើប្រាស់ប្រចាំថ្ងៃនោះទេ។ ខ្ញុំនឹងមិនចូលទៅក្នុងព័ត៌មានលម្អិតនៅទីនេះទេ អំពីមូលដ្ឋានរបស់ខ្ញុំសម្រាប់ការទាមទារបែបនេះ ហើយសូមអញ្ជើញអ្នកឱ្យមើលការពិភាក្សាដោយយកចិត្តទុកដាក់របស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ ហើយនៅ តំណភ្ជាប់នៅទីនេះ.
បន្តទៅមុខទៀត យើងអាចពិចារណាលើបញ្ហានៃភាពលំអៀងផ្នែកស្ថិតិ និងការគណនាដែលទាក់ទងនឹង AI ។
សញ្ជឹងគិតអំពីសំណួរដែលមើលទៅហាក់ដូចជាមិនសមហេតុផលនៃកន្លែងដែលរថយន្តបើកបរដោយខ្លួនឯងនឹងត្រូវរ៉ូមីងដើម្បីទទួលអ្នកដំណើរ។ នេះហាក់ដូចជាប្រធានបទដែលគ្មានកំហុសច្រើនក្រៃលែង។ យើងនឹងប្រើរឿងនិទាននៃទីក្រុង ឬទីក្រុងដែលមានរថយន្តបើកបរដោយខ្លួនឯង ដើម្បីរំលេចនូវសក្តានុពលគួរឱ្យភ្ញាក់ផ្អើលនៃស្ថិតិ និងការគណនាដែលទាក់ទងនឹង AI ។
ដំបូង សន្មត់ថា AI កំពុងជិះរថយន្តបើកបរដោយខ្លួនឯងពេញទីក្រុងទាំងមូល។ អ្នកណាដែលចង់ស្នើសុំជិះរថយន្តដែលបើកដោយខ្លួនឯងនោះ ពិតជាមានឱកាសស្មើគ្នាក្នុងការហៅឡានមួយ។ បន្តិចម្ដងៗ AI បានចាប់ផ្តើមរក្សារថយន្តដែលបើកបរដោយខ្លួនឯងជាចម្បងនៅក្នុងផ្នែកមួយនៃទីក្រុង។ ផ្នែកនេះគឺជាអ្នកបង្កើតលុយកាន់តែច្រើន ហើយប្រព័ន្ធ AI ត្រូវបានកម្មវិធីដើម្បីព្យាយាម និងបង្កើនប្រាក់ចំណូលជាផ្នែកនៃការប្រើប្រាស់នៅក្នុងសហគមន៍។
សមាជិកសហគមន៍នៅក្នុងផ្នែកក្រីក្រនៃទីក្រុងទំនងជាមិនសូវមានលទ្ធភាពជិះរថយន្តដែលបើកបរដោយខ្លួនឯងនោះទេ។ នេះគឺដោយសារតែរថយន្តដែលបើកបរដោយខ្លួនឯងបាននៅឆ្ងាយជាង និងកំពុងធ្វើដំណើរក្នុងផ្នែកដែលមានប្រាក់ចំណូលខ្ពស់ជាងក្នុងតំបន់។ នៅពេលដែលសំណើមួយចូលមកពីផ្នែកឆ្ងាយនៃទីក្រុង សំណើណាមួយពីទីតាំងជិតដែលទំនងជានៅក្នុងផ្នែក "គួរឱ្យគោរព" នៃទីក្រុងនឹងទទួលបានអាទិភាពខ្ពស់ជាងនេះ។ នៅទីបំផុត លទ្ធភាពទទួលបានរថយន្តបើកបរដោយខ្លួនឯងនៅកន្លែងណាមួយក្រៅពីផ្នែកដ៏សម្បូរបែបនៃទីក្រុងគឺស្ទើរតែមិនអាចទៅរួចទេ ដែលគួរឱ្យហួសចិត្ត ដូច្នេះសម្រាប់អ្នកដែលរស់នៅក្នុងតំបន់ដែលខ្វះខាតធនធានឥឡូវនេះ។
អ្នកអាចអះអាងថា AI បានធ្លាក់ចុះមកលើទម្រង់នៃភាពលំអៀងផ្នែកស្ថិតិ និងការគណនា ដែលស្រដៀងនឹងទម្រង់នៃការរើសអើងប្រូកស៊ី (ក៏ត្រូវបានគេហៅជាញឹកញាប់ថាជាការរើសអើងដោយប្រយោល)។ AI មិនត្រូវបានរៀបចំឡើងដើម្បីជៀសវាងសង្កាត់ក្រីក្រទាំងនោះ។ ផ្ទុយទៅវិញ វា "បានរៀន" ដើម្បីធ្វើដូច្នេះតាមរយៈការប្រើប្រាស់ ML/DL ។
វាត្រូវបានគេសន្មត់ថា AI នឹងមិនធ្លាក់ចូលទៅក្នុងខ្សាច់ដ៏អាម៉ាស់បែបនោះទេ។ មិនមានការត្រួតពិនិត្យឯកទេសណាមួយត្រូវបានបង្កើតឡើងដើម្បីតាមដានកន្លែងដែលរថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI នឹងទៅនោះទេ។ លុះក្រោយពីសមាជិកសហគមន៍ចាប់ផ្ដើមត្អូញត្អែរ ទើបមេដឹកនាំក្រុងដឹងថាមានអ្វីកើតឡើង។ សម្រាប់ព័ត៌មានបន្ថែមអំពីប្រភេទនៃបញ្ហាទូទាំងទីក្រុងទាំងនេះដែលយានយន្តស្វយ័ត និងរថយន្តបើកបរដោយខ្លួនឯងនឹងបង្ហាញ សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ ហើយដែលពិពណ៌នាអំពីការសិក្សាដែលដឹកនាំដោយសាកលវិទ្យាល័យ Harvard ដែលខ្ញុំបានសហការនិពន្ធលើប្រធានបទនេះ។
សម្រាប់ប្រភេទទីបីនៃភាពលំអៀងរបស់មនុស្សដែលទាក់ទងនឹងភាពលំអៀង AI យើងងាកទៅរកឧទាហរណ៍ដែលពាក់ព័ន្ធនឹង AI ដែលកំណត់ថាតើត្រូវឈប់សម្រាប់ការរង់ចាំអ្នកថ្មើរជើងដែលមិនមានសិទ្ធិឆ្លងកាត់ផ្លូវនោះទេ។
អ្នកពិតជាបានបើកបរ ហើយបានជួបប្រទះនឹងអ្នកថ្មើរជើងដែលកំពុងរង់ចាំឆ្លងផ្លូវ ហើយពួកគេមិនទាន់មានសិទ្ធិធ្វើផ្លូវនោះទេ។ នេះមានន័យថាអ្នកមានឆន្ទានុសិទ្ធិក្នុងការថាតើត្រូវឈប់ហើយអនុញ្ញាតឱ្យពួកគេឆ្លងកាត់។ អ្នកអាចបន្តដោយមិនអនុញ្ញាតឱ្យពួកគេឆ្លងកាត់ ហើយនៅតែស្ថិតក្នុងច្បាប់បើកបរផ្លូវច្បាប់ពេញលេញនៃការធ្វើដូច្នេះ។
ការសិក្សាអំពីរបៀបដែលអ្នកបើកបរមនុស្សសម្រេចចិត្តឈប់ ឬមិនឈប់សម្រាប់អ្នកថ្មើរជើងបែបនេះ បានបង្ហាញថា ពេលខ្លះអ្នកបើកបរមនុស្សធ្វើការជ្រើសរើសដោយផ្អែកលើភាពលំអៀងដែលមិនសមហេតុផល។ អ្នកបើកបរមនុស្សអាចសម្លឹងមើលអ្នកថ្មើរជើង ហើយជ្រើសរើសមិនឈប់ ទោះបីជាពួកគេនឹងឈប់ក៏ដោយ ប្រសិនបើអ្នកថ្មើរជើងមានរូបរាងខុសគ្នា ដូចជាផ្អែកលើពូជសាសន៍ ឬភេទ។ ខ្ញុំបានពិនិត្យរឿងនេះនៅ តំណភ្ជាប់នៅទីនេះ.
ស្រមៃថារថយន្តបើកបរដោយខ្លួនឯងដែលមានមូលដ្ឋានលើ AI ត្រូវបានកម្មវិធីដើម្បីដោះស្រាយជាមួយនឹងសំណួរថាតើត្រូវឈប់ឬមិនឈប់សម្រាប់អ្នកថ្មើរជើងដែលមិនមានផ្លូវត្រូវ។ នេះជារបៀបដែលអ្នកអភិវឌ្ឍន៍ AI សម្រេចចិត្តរៀបចំកិច្ចការនេះ។ ពួកគេបានប្រមូលទិន្នន័យពីម៉ាស៊ីនថតវីដេអូរបស់ទីក្រុង ដែលត្រូវបានដាក់នៅជុំវិញទីក្រុង។ ទិន្នន័យបង្ហាញពីអ្នកបើកបររបស់មនុស្សដែលឈប់សម្រាប់អ្នកថ្មើរជើងដែលមិនមានផ្លូវត្រូវ និងអ្នកបើកបរមនុស្សដែលមិនឈប់។ វាត្រូវបានប្រមូលទាំងអស់ទៅក្នុងសំណុំទិន្នន័យដ៏ធំមួយ។
ដោយប្រើ Machine Learning និង Deep Learning ទិន្នន័យត្រូវបានយកគំរូតាមការគណនា។ ប្រព័ន្ធបើកបរ AI បន្ទាប់មកប្រើម៉ូដែលនេះដើម្បីសម្រេចថាពេលណាត្រូវឈប់ ឬមិនឈប់។ ជាទូទៅ គំនិតនេះគឺថា អ្វីក៏ដោយដែលទំនៀមទំលាប់ក្នុងស្រុកមាន នោះជារបៀបដែល AI នឹងដឹកនាំរថយន្តដែលបើកបរដោយខ្លួនឯងបាន។
ដើម្បីឱ្យអ្នកដឹកនាំទីក្រុង និងប្រជាជនមានការភ្ញាក់ផ្អើលនោះ AI ច្បាស់ជាជ្រើសរើសឈប់ ឬមិនឈប់ ដោយផ្អែកលើអាយុរបស់អ្នកថ្មើរជើង។ តើវាអាចកើតឡើងដោយរបៀបណា?
តាមការពិនិត្យមើលកាន់តែដិតដល់នៃវីដេអូនៃការប្រុងប្រយ័ត្នរបស់អ្នកបើកបរ វាបង្ហាញថាករណីជាច្រើននៃការមិនបញ្ឈប់អ្នកថ្មើរជើងដែលមានឈើច្រត់របស់មនុស្សចាស់។ អ្នកបើកបរមនុស្សហាក់ដូចជាមិនចង់ឈប់ ហើយទុកឱ្យមនុស្សវ័យចំណាស់ម្នាក់ឆ្លងកាត់ផ្លូវ ដោយសន្មតថាដោយសារតែរយៈពេលដែលគេសន្មត់ថាអាចចំណាយពេលសម្រាប់នរណាម្នាក់ក្នុងការធ្វើដំណើរ។ ប្រសិនបើអ្នកថ្មើរជើងមើលទៅហាក់ដូចជាពួកគេអាចលោតយ៉ាងលឿនឆ្លងកាត់ផ្លូវ ហើយកាត់បន្ថយពេលវេលារង់ចាំរបស់អ្នកបើកបរ នោះអ្នកបើកបរកាន់តែមានចិត្តល្អក្នុងការអនុញ្ញាតឱ្យមនុស្សឆ្លងកាត់។
វាបានកប់យ៉ាងជ្រៅទៅក្នុងប្រព័ន្ធបើកបរ AI ។ ឧបករណ៍ចាប់សញ្ញានៃរថយន្តដែលបើកបរដោយខ្លួនឯងនឹងស្កេនអ្នកថ្មើរជើងដែលកំពុងរង់ចាំ បញ្ចូលទិន្នន័យនេះទៅក្នុងគំរូ ML/DL ហើយម៉ូដែលនឹងបញ្ចេញទៅ AI ថាតើត្រូវឈប់ ឬបន្ត។ ការចង្អុលបង្ហាញដែលមើលឃើញថាអ្នកថ្មើរជើងអាចយឺតក្នុងការឆ្លងកាត់ ដូចជាការប្រើអំពៅដើរ ត្រូវបានប្រើជាគណិតវិទ្យាដើម្បីកំណត់ថាតើប្រព័ន្ធបើកបរ AI គួរតែអនុញ្ញាតឱ្យអ្នកថ្មើរជើងដែលកំពុងរង់ចាំឆ្លងកាត់ឬអត់។
អ្នកអាចប្រកែកថានេះគឺជាការពឹងផ្អែកលើការលំអៀងរបស់មនុស្សដែលមានស្រាប់។
សន្និដ្ឋាន
គំនិតចុងក្រោយមួយចំនួនសម្រាប់ពេលនេះ។
មានការនិយាយដ៏ពេញនិយមមួយថា អ្នកមិនអាចផ្លាស់ប្តូរសន្លឹកបៀដែលអ្នកត្រូវបានចែកនោះទេ ហើយជំនួសមកវិញត្រូវតែរៀនពីរបៀបលេងឱ្យបានគ្រប់គ្រាន់ជាមួយនឹងដៃអ្វីដែលអ្នកត្រូវបានផ្តល់ឱ្យ។
នៅក្នុងករណីនៃភាពលំអៀងរបស់ AI ប្រសិនបើយើងមិនយកចិត្តទុកដាក់លើការបង្កើតក្រមសីលធម៌ AI នៅទូទាំងក្រុមប្រឹក្សាភិបាល និងជាពិសេសធ្វើឱ្យមានភាពរឹងមាំនៃលក្ខណៈនៃភាពលំអៀង AI នោះ ប្រភេទដៃដែលយើងនឹងត្រូវដោះស្រាយនឹងពោរពេញដោយភាពគ្មានសីលធម៌។ និងអាចជាទម្រង់ខុសច្បាប់។ យើងត្រូវបញ្ឈប់សន្លឹកបៀទាំងនោះមិនធ្លាប់មាន ដើម្បីចាប់ផ្តើមជាមួយ។ គោលបំណងដ៏អង់អាចក្នុងការបង្កើត និងផ្សព្វផ្សាយស្តង់ដារ AI ប្រកបដោយសីលធម៌ គឺជាឧបករណ៍ដ៏សំខាន់មួយដើម្បីប្រយុទ្ធប្រឆាំងនឹងរលកយក្សស៊ូណាមិដែលកំពុងកើនឡើងនាពេលខាងមុខ។ អាយអេសសម្រាប់អាក្រក់.
អ្នកអាចសម្រេចចិត្តទៅកាន់ធនាគារថា ភាពលំអៀង AI ដែលរីករាលដាល និងគ្មានសីលធម៌ AI នឹងប្រៀបដូចជាសន្លឹកបៀដ៏ទន់ខ្សោយ ធ្វើឱ្យប៉ះពាល់ដល់ខ្លួនវា ហើយទំនងជាមហន្តរាយសម្រាប់យើងទាំងអស់គ្នា។
តោះលេងដើម្បីឈ្នះ ធ្វើដូច្នេះជាមួយ AI ប្រកបដោយក្រមសីលធម៌។
ប្រភព៖ https://www.forbes.com/sites/lanceeliot/2022/10/06/ai-ethics-and-ai-law-are-moving-toward-standards-that-explicitly-identify-and-manage- ភាពលំអៀង/