ក្រមសីលធម៌ AI និងច្បាប់ AI បញ្ជាក់ពីអ្វីដែលជាការពិតដែល AI គួរឱ្យទុកចិត្ត

Trust is everything, so they say.

The noted philosopher Lao Tzu said that those who do not trust enough will not be trusted. Ernest Hemingway, an esteemed novelist, stated that the best way to find out if you can trust somebody is by trusting them.

Meanwhile, it seems that trust is both precious and brittle. The trust that one has can collapse like a house of cards or suddenly burst like a popped balloon.

The ancient Greek tragedian Sophocles asserted that trust dies but mistrust blossoms. French philosopher and mathematician Descartes contended that it is prudent never to trust wholly those who have deceived us even once. Billionaire business investor extraordinaire Warren Buffett exhorted that it takes twenty years to build a trustworthy reputation and five minutes to ruin it.

You might be surprised to know that all of these varied views and provocative opinions about trust are crucial to the advent of Artificial Intelligence (AI).

Yes, there is something keenly referred to as AI ដែលគួរឱ្យទុកចិត្ត that keeps getting a heck of a lot of attention these days, including handwringing catcalls from within the field of AI and also boisterous outbursts by those outside of the AI realm. The overall notion entails whether or not society is going to be willing to place trust in the likes of AI systems.

Presumably, if society won’t or can’t trust AI, the odds are that AI systems will fail to get traction. AI as we know it currently will get pushed aside and merely collect dust. Shockingly, AI could end up on the junk heap, relegated historically to nothing more than a desperately tried but spectacularly failed high-tech experiment. Any efforts to reinvigorate AI would potentially face a tremendous uphill battle and be stopped by all manner of objections and outright protests. Ostensibly, due to a lack of trust in AI.

Which shall it be, are we to trust in AI, or are we not to trust in AI?

In essence, are we going to truly have trustworthy AI?

Those are erstwhile and unresolved questions. Let’s unpack it.

AI Ethics And The Struggle For Trustworthy AI

The belief by many within AI is that the developers of AI systems can garner trust in AI by appropriately devising AI that is trustworthy. The essence is that you cannot hope to gain trust if AI isn’t seemingly trustworthy at the get-go. By crafting AI systems in a manner that is perceived to be trustworthy there is a solid chance that people will accept AI and adopt AI uses.

One qualm already nagging at this trustworthy AI consideration is that we might already be in a public trust deficit when it comes to AI. You could say that the AI we’ve already seen has dug a hole and been tossing asunder trust in massive quantities. Thus, rather than starting at some sufficient base of trustworthiness, AI is going to have to astoundingly climb out of the deficit, clawing for each desired ounce of added trust that will be needed to convince people that AI is in fact trustworthy.

Into this challenge comes AI Ethics and AI Law.

AI Ethics and AI Law are struggling mightily with trying to figure out what it will take to make AI trustworthy. Some suggest that there is a formula or ironclad laws that will get AI into the trustworthy heavens. Others indicate that it will take hard work and consistent and unrelenting adherence to AI Ethics and AI Law principles to get the vaunted trust of society.

The contemporary enigma about trust in AI is not especially new per se.

You can easily go back to the late 1990s and trace the emergence of a sought-for desire for “trusted computing” from those days. This was a large-scale tech-industry effort to discern if computers all told could be made in a manner that would be construed as trustworthy by society.

Key questions consisted of:

  • Could computer hardware be made such that it was trustworthy?
  • Could software be crafted such that it was trustworthy?
  • Could we put in place global networked computers that would be trustworthy?
  • ហើយដូច្នេះនៅលើ។

The prevailing sentiment then and that continues to this day is that trustworthy computing remains a type of holy grail that regrettably is still not quite within our reach (as noted in a paper entitled “Trustworthy AI” in the ទំនាក់ទំនងរបស់ ACM). You could convincingly argue that AI is yet another component of the computing trustworthiness envelopment, yet AI makes the trust pursuit even more challenging and uncertain. AI has become the potential spoiler in the fight to attain trustworthy computing. Possibly the weakest link in the chain, as it were.

Let’s take a quick look at why AI has gotten our dander up about being less than trustworthy. In addition, we will explore the tenets of AI Ethics that are hoped will aid in propping up the already semi-underwater perceived trust (or bubbling distrust) of today’s AI. For my ongoing and extensive coverage of AI Ethics, see តំណភ្ជាប់នៅទីនេះ និង តំណភ្ជាប់នៅទីនេះ, គ្រាន់តែឈ្មោះមួយចំនួន។

ផ្នែកជាក់លាក់មួយ ឬផ្នែកនៃក្រមសីលធម៌ AI ដែលកំពុងទទួលបានការចាប់អារម្មណ៍ពីប្រព័ន្ធផ្សព្វផ្សាយជាច្រើនរួមមាន AI ដែលបង្ហាញពីភាពលំអៀង និងភាពមិនស្មើគ្នា។ អ្នកប្រហែលជាដឹងហើយថា នៅពេលដែលយុគសម័យចុងក្រោយនៃ AI បានចាប់ផ្តើម មានការសាទរយ៉ាងខ្លាំងចំពោះអ្វីដែលមនុស្សមួយចំនួនហៅថា អាយអេសដើម្បីភាពល្អ. ជាអកុសល យើងចាប់ផ្តើមធ្វើសាក្សីដោយភាពរំភើបរីករាយ អាយអេសសម្រាប់អាក្រក់. ជាឧទាហរណ៍ ប្រព័ន្ធសម្គាល់មុខដែលមានមូលដ្ឋានលើ AI ជាច្រើនត្រូវបានបង្ហាញថាមានផ្ទុកនូវភាពលំអៀងជាតិសាសន៍ និងលម្អៀងយេនឌ័រ ដែលខ្ញុំបានពិភាក្សានៅ តំណភ្ជាប់នៅទីនេះ.

ខំប្រឹងទប់ទល់ អាយអេសសម្រាប់អាក្រក់ កំពុងដំណើរការយ៉ាងសកម្ម។ ក្រៅពីស្រែកថ្ងូរ ផ្នែកច្បាប់ ការខិតខំប្រឹងប្រែងក្នុងការទប់ទល់នឹងការប្រព្រឹត្តខុស វាក៏មានការជំរុញយ៉ាងសំខាន់ឆ្ពោះទៅរកការទទួលយកក្រមសីលធម៌ AI ដើម្បីកែតម្រូវភាពអាក្រក់របស់ AI ។ គំនិតនេះគឺថាយើងគួរតែទទួលយក និងគាំទ្រគោលការណ៍សីលធម៌ AI សំខាន់ៗសម្រាប់ការអភិវឌ្ឍន៍ និងការអនុវត្តរបស់ AI ដើម្បីធ្វើដូច្នេះដើម្បីកាត់បន្ថយ។ អាយអេសសម្រាប់អាក្រក់ ហើយក្នុងពេលដំណាលគ្នាផ្សព្វផ្សាយ និងផ្សព្វផ្សាយការពេញចិត្ត អាយអេសដើម្បីភាពល្អ.

តាមគំនិតដែលពាក់ព័ន្ធ ខ្ញុំជាអ្នកតស៊ូមតិក្នុងការព្យាយាមប្រើ AI ជាផ្នែកនៃដំណោះស្រាយចំពោះបញ្ហា AI ដោយប្រយុទ្ធនឹងភ្លើងក្នុងរបៀបនៃការគិតនោះ។ ជាឧទាហរណ៍ យើងអាចបញ្ចូលសមាសធាតុ Ethical AI ទៅក្នុងប្រព័ន្ធ AI ដែលនឹងត្រួតពិនិត្យពីរបៀបដែល AI ដែលនៅសល់កំពុងធ្វើ ហើយដូច្នេះវាអាចចាប់យកការខិតខំប្រឹងប្រែងរើសអើងណាមួយក្នុងពេលជាក់ស្តែង សូមមើលការពិភាក្សារបស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ. យើងក៏អាចមានប្រព័ន្ធ AI ដាច់ដោយឡែកដែលដើរតួជាប្រភេទនៃម៉ូនីទ័រ AI Ethics ។ ប្រព័ន្ធ AI ដើរតួជាអ្នកត្រួតពិនិត្យដើម្បីតាមដាន និងរកឃើញនៅពេលដែល AI មួយផ្សេងទៀតកំពុងចូលទៅក្នុងទីជ្រៅបំផុតដែលគ្មានសីលធម៌ (សូមមើលការវិភាគរបស់ខ្ញុំអំពីសមត្ថភាពបែបនេះនៅ តំណភ្ជាប់នៅទីនេះ).

បន្តិចទៀតនេះ ខ្ញុំនឹងចែករំលែកជាមួយអ្នកនូវគោលការណ៍ទូទៅមួយចំនួនដែលស្ថិតនៅក្រោមក្រមសីលធម៌ AI ។ មានបញ្ជីប្រភេទទាំងនេះជាច្រើនអណ្តែតនៅជុំវិញទីនេះ និងទីនោះ។ អ្នកអាចនិយាយបានថា មិនទាន់មានបញ្ជីឯកវចនៈនៃការអំពាវនាវជាសកល និងការស្របគ្នានៅឡើយ។ នោះ​ជា​ដំណឹង​អកុសល។ ដំណឹងល្អនោះគឺថា យ៉ាងហោចណាស់មានបញ្ជីសីលធម៌ AI ដែលអាចរកបានរួចរាល់ ហើយពួកគេមានទំនោរស្រដៀងគ្នា។ ទាំងអស់បានប្រាប់ នេះបង្ហាញថាតាមរយៈទម្រង់នៃការបញ្ចូលគ្នាប្រកបដោយហេតុផលនៃប្រភេទដែលយើងកំពុងស្វែងរកវិធីរបស់យើងឆ្ពោះទៅរកភាពសាមញ្ញទូទៅនៃអ្វីដែល AI Ethics មាន។

ជាដំបូង សូមនិយាយដោយសង្ខេបនូវសិក្ខាបទនៃក្រមសីលធម៌ AI រួមមួយចំនួន ដើម្បីបង្ហាញពីអ្វីដែលគួរតែជាការពិចារណាដ៏សំខាន់សម្រាប់នរណាម្នាក់ដែលបង្កើត បង្កើត ឬប្រើប្រាស់ AI ។

ជាឧទាហរណ៍ ដូចមានចែងដោយបុរីវ៉ាទីកង់ ទីក្រុងរ៉ូមអំពាវនាវឱ្យមានក្រមសីលធម៌ AI ហើយដូចដែលខ្ញុំបានគ្របដណ្តប់ស៊ីជម្រៅ តំណភ្ជាប់នៅទីនេះទាំងនេះគឺជាគោលការណ៍សីលធម៌ AI ចម្បងចំនួនប្រាំមួយដែលបានកំណត់របស់ពួកគេ៖

  • តម្លាភាព: ជាគោលការណ៍ ប្រព័ន្ធ AI ត្រូវតែអាចពន្យល់បាន។
  • បញ្ចូល៖ តម្រូវការរបស់មនុស្សគ្រប់រូបត្រូវតែយកមកពិចារណា ដើម្បីឲ្យមនុស្សគ្រប់រូបទទួលបានអត្ថប្រយោជន៍ ហើយបុគ្គលទាំងអស់អាចទទួលបានលក្ខខណ្ឌល្អបំផុតដើម្បីបង្ហាញពីខ្លួនឯង និងអភិវឌ្ឍ។
  • ទំនួលខុសត្រូវ: អ្នកដែលរចនា និងដាក់ពង្រាយការប្រើប្រាស់ AI ត្រូវតែដំណើរការដោយការទទួលខុសត្រូវ និងតម្លាភាព
  • មិនលំអៀង៖ កុំបង្កើត ឬធ្វើសកម្មភាពដោយលំអៀង ការពារភាពត្រឹមត្រូវ និងសេចក្តីថ្លៃថ្នូររបស់មនុស្ស
  • ភាពជឿជាក់៖ ប្រព័ន្ធ AI ត្រូវតែអាចដំណើរការដោយភាពជឿជាក់
  • សុវត្ថិភាព និងឯកជនភាព៖ ប្រព័ន្ធ AI ត្រូវតែដំណើរការដោយសុវត្ថិភាព និងគោរពភាពឯកជនរបស់អ្នកប្រើប្រាស់។

ដូចដែលបានបញ្ជាក់ដោយក្រសួងការពារជាតិសហរដ្ឋអាមេរិក (DoD) នៅក្នុងរបស់ពួកគេ។ គោលការណ៍សីលធម៌សម្រាប់ការប្រើប្រាស់បញ្ញាសិប្បនិម្មិត ហើយដូចដែលខ្ញុំបានគ្របដណ្តប់ស៊ីជម្រៅ តំណភ្ជាប់នៅទីនេះនេះគឺជាគោលការណ៍សីលធម៌ AI ចម្បងចំនួនប្រាំមួយរបស់ពួកគេ៖

  • ទទួលខុសត្រូវ: បុគ្គលិក DoD នឹងអនុវត្តកម្រិតនៃការវិនិច្ឆ័យ និងការថែទាំសមស្រប ខណៈពេលដែលនៅតែទទួលខុសត្រូវចំពោះការអភិវឌ្ឍន៍ ការដាក់ពង្រាយ និងការប្រើប្រាស់សមត្ថភាព AI ។
  • សមភាព៖ នាយកដ្ឋាននឹងចាត់វិធានការដោយចេតនា ដើម្បីកាត់បន្ថយភាពលំអៀងដោយអចេតនានៅក្នុងសមត្ថភាព AI ។
  • អាចតាមដានបាន៖ សមត្ថភាព AI របស់នាយកដ្ឋាននឹងត្រូវបានបង្កើតឡើង និងដាក់ឱ្យប្រើប្រាស់ ដែលបុគ្គលិកពាក់ព័ន្ធមានការយល់ដឹងសមស្របអំពីបច្ចេកវិទ្យា ដំណើរការអភិវឌ្ឍន៍ និងវិធីសាស្រ្តប្រតិបត្តិការដែលអនុវត្តចំពោះសមត្ថភាព AI រួមទាំងវិធីសាស្រ្តតម្លាភាព និងសវនកម្ម ប្រភពទិន្នន័យ និងនីតិវិធីរចនា និងឯកសារ។
  • អាចជឿទុកចិត្តបាន: សមត្ថភាព AI របស់នាយកដ្ឋាននឹងមានការប្រើប្រាស់ច្បាស់លាស់ និងច្បាស់លាស់ ហើយសុវត្ថិភាព សុវត្ថិភាព និងប្រសិទ្ធភាពនៃសមត្ថភាពទាំងនោះនឹងត្រូវឆ្លងកាត់ការធ្វើតេស្ត និងការធានានៅក្នុងការប្រើប្រាស់ដែលបានកំណត់នៅទូទាំងវដ្តជីវិតរបស់ពួកគេ។
  • អាចគ្រប់គ្រងបាន៖ នាយកដ្ឋាននឹងរចនា និងវិស្វកម្មសមត្ថភាព AI ដើម្បីបំពេញមុខងារដែលបានគ្រោងទុក ខណៈពេលដែលមានសមត្ថភាពក្នុងការរកឃើញ និងជៀសវាងផលវិបាកដែលមិនចង់បាន និងសមត្ថភាពក្នុងការផ្តាច់ ឬបិទប្រព័ន្ធដែលបានដាក់ពង្រាយ ដែលបង្ហាញពីអាកប្បកិរិយាអចេតនា។

ខ្ញុំក៏បានពិភាក្សាផងដែរអំពីការវិភាគសមូហភាពផ្សេងៗនៃគោលការណ៍សីលធម៌ AI រួមទាំងការគ្របដណ្តប់លើសំណុំដែលបង្កើតឡើងដោយអ្នកស្រាវជ្រាវដែលបានពិនិត្យ និងបង្រួមខ្លឹមសារនៃគោលការណ៍សីលធម៌ AI ជាតិ និងអន្តរជាតិជាច្រើននៅក្នុងក្រដាសដែលមានចំណងជើងថា "ទេសភាពសកលនៃគោលការណ៍ណែនាំសីលធម៌ AI" (បោះពុម្ពផ្សាយ ក្នុង ធម្មជាតិ) ហើយការគ្របដណ្តប់របស់ខ្ញុំរុករកនៅ តំណភ្ជាប់នៅទីនេះដែលនាំទៅដល់បញ្ជីគន្លឹះនេះ៖

  • តម្លាភាព
  • យុត្តិធម៌ និងយុត្តិធម៌
  • ភាពមិនអាក្រក់
  • ការទទួលខុសត្រូវ
  • ភាពឯកជន
  • អត្ថប្រយោជន៍
  • សេរីភាព និងស្វ័យភាព
  • ការជឿទុកចិត្ត
  • និរន្តរភាព
  • សេចក្តីថ្លៃថ្នូរ
  • សាមគ្គីភាព

ដូចដែលអ្នកអាចទាយដោយផ្ទាល់ ការព្យាយាមកំណត់ចំណុចជាក់លាក់នៃគោលការណ៍ទាំងនេះអាចជារឿងពិបាកធ្វើណាស់។ កាន់តែពិសេសជាងនេះទៅទៀត ការខិតខំប្រឹងប្រែងដើម្បីបង្វែរគោលការណ៍ដ៏ទូលំទូលាយទាំងនោះទៅជាអ្វីដែលជាក់ស្តែង និងលម្អិតគ្រប់គ្រាន់ដើម្បីប្រើប្រាស់នៅពេលបង្កើតប្រព័ន្ធ AI ក៏ជាចំណុចពិបាកមួយក្នុងការបំបែក។ វាជាការងាយស្រួលក្នុងការធ្វើការគ្រវីដៃខ្លះៗអំពីអ្វីដែល AI Ethics សិក្ខាបទគឺ និងរបៀបដែលពួកគេគួរត្រូវបានសង្កេតជាទូទៅ ខណៈពេលដែលវាជាស្ថានភាពស្មុគស្មាញជាងនៅក្នុង AI coding ដែលត្រូវតែជាកៅស៊ូពិតប្រាកដដែលជួបនឹងផ្លូវ។

គោលការណ៍ក្រមសីលធម៌ AI នឹងត្រូវប្រើប្រាស់ដោយអ្នកអភិវឌ្ឍន៍ AI រួមជាមួយនឹងអ្នកដែលគ្រប់គ្រងកិច្ចខិតខំប្រឹងប្រែងក្នុងការអភិវឌ្ឍន៍ AI និងសូម្បីតែអ្នកដែលនៅទីបំផុតអនុវត្ត និងថែទាំប្រព័ន្ធ AI ។ ភាគីពាក់ព័ន្ធទាំងអស់នៅទូទាំងវដ្តជីវិត AI នៃការអភិវឌ្ឍន៍ និងការប្រើប្រាស់ត្រូវបានពិចារណាក្នុងវិសាលភាពនៃការគោរពតាមបទដ្ឋានដែលត្រូវបានបង្កើតឡើងនៃ Ethical AI ។ នេះគឺជាការគូសបញ្ជាក់ដ៏សំខាន់មួយចាប់តាំងពីការសន្មត់ធម្មតាគឺថា "មានតែអ្នកសរសេរកូដ" ឬអ្នកដែលកម្មវិធី AI ប៉ុណ្ណោះដែលត្រូវប្រកាន់ខ្ជាប់នូវគោលគំនិតសីលធម៌របស់ AI ។ ដូចដែលបានបញ្ជាក់រួចមកហើយ វាត្រូវការភូមិមួយដើម្បីបង្កើត និងអនុវត្ត AI ហើយភូមិទាំងមូលត្រូវតែគោរព និងគោរពតាមសិក្ខាបទ AI ។

យើងក៏ត្រូវប្រាកដថាយើងនៅលើទំព័រដូចគ្នាអំពីលក្ខណៈនៃ AI នាពេលបច្ចុប្បន្ននេះ។

មិនមាន AI ណាមួយដែលប្រកបដោយមនោសញ្ចេតនាទេ។ យើងមិនមាននេះទេ។ យើង​មិន​ដឹង​ថា​តើ​ AI ​អាច​នឹង​កើត​ឡើង​ឬ​អត់​នោះ​ទេ។ គ្មាននរណាម្នាក់អាចទស្សន៍ទាយបានច្បាស់ថា តើយើងនឹងសម្រេចបាន AI អារម្មណ៍ ឬថាតើ AI អារម្មណ៍នឹងកើតឡើងដោយអព្ភូតហេតុដោយឯកឯងក្នុងទម្រង់នៃ supernova នៃការយល់ដឹងតាមការគណនា (ជាទូទៅគេហៅថាឯកវចនៈ សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ).

ប្រភេទនៃ AI ដែលខ្ញុំកំពុងផ្តោតលើមាន AI ដែលមិនមានអារម្មណ៍ដែលយើងមានសព្វថ្ងៃនេះ។ ប្រសិនបើយើងចង់ស្មានទុកជាមុន អ្នកផ្ញើ AI ការពិភាក្សានេះអាចទៅក្នុងទិសដៅខុសគ្នាយ៉ាងខ្លាំង។ AI ដែល​មាន​អារម្មណ៍​ថា​នឹង​មាន​គុណភាព​មនុស្ស។ អ្នកនឹងត្រូវពិចារណាថា AI អារម្មណ៍គឺស្មើនឹងការយល់ដឹងរបស់មនុស្ស។ ជាងនេះទៅទៀត ចាប់តាំងពីមានការប៉ាន់ស្មានខ្លះថា យើងប្រហែលជាមាន AI ដ៏វៃឆ្លាតទំនើប ដូច្នេះហើយទើបអាចសន្និដ្ឋានបានថា AI បែបនេះអាចមានភាពវៃឆ្លាតជាងមនុស្សទៅទៀត (សម្រាប់ការរុករករបស់ខ្ញុំនូវ AI ឆ្លាតវៃទំនើបជាលទ្ធភាព សូមមើល ការគ្របដណ្តប់នៅទីនេះ).

ចូរយើងរក្សាអ្វីៗឱ្យកាន់តែជ្រៅនៅលើផែនដី ហើយពិចារណាអំពី AI ដែលមិនងាយយល់នាពេលបច្ចុប្បន្ននេះ។

ត្រូវដឹងថា AI នាពេលបច្ចុប្បន្ននេះ មិនអាច "គិត" តាមរបៀបណាមួយបានដូចការគិតរបស់មនុស្សនោះទេ។ នៅពេលអ្នកប្រាស្រ័យទាក់ទងជាមួយ Alexa ឬ Siri សមត្ថភាពសន្ទនាអាចហាក់ដូចជាស្រដៀងនឹងសមត្ថភាពរបស់មនុស្ស ប៉ុន្តែការពិតគឺថាវាមានលក្ខណៈគណនា និងខ្វះការយល់ដឹងរបស់មនុស្ស។ យុគសម័យចុងក្រោយបង្អស់របស់ AI បានប្រើប្រាស់យ៉ាងទូលំទូលាយនូវ Machine Learning (ML) និង Deep Learning (DL) ដែលមានឥទ្ធិពលលើការផ្គូផ្គងលំនាំគណនា។ នេះបាននាំឱ្យមានប្រព័ន្ធ AI ដែលមានរូបរាងដូចមនុស្ស។ ទន្ទឹមនឹងនេះដែរ សព្វថ្ងៃនេះមិនមាន AI ណាមួយដែលមានលក្ខណៈសមហេតុសមផលទេ ហើយក៏មិនមានការងឿងឆ្ងល់នៃការយល់ដឹងនៃការគិតដ៏រឹងមាំរបស់មនុស្សដែរ។

ML/DL គឺជាទម្រង់នៃការផ្គូផ្គងលំនាំគណនា។ វិធីសាស្រ្តធម្មតាគឺអ្នកប្រមូលផ្តុំទិន្នន័យអំពីកិច្ចការធ្វើការសម្រេចចិត្ត។ អ្នកបញ្ចូលទិន្នន័យទៅក្នុងម៉ូដែលកុំព្យូទ័រ ML/DL ។ គំរូទាំងនោះស្វែងរកលំនាំគណិតវិទ្យា។ បន្ទាប់ពីស្វែងរកគំរូបែបនេះ ប្រសិនបើរកឃើញនោះ ប្រព័ន្ធ AI នឹងប្រើលំនាំទាំងនោះនៅពេលជួបទិន្នន័យថ្មី។ នៅពេលបង្ហាញទិន្នន័យថ្មី គំរូដែលផ្អែកលើ "ទិន្នន័យចាស់" ឬទិន្នន័យប្រវត្តិសាស្រ្តត្រូវបានអនុវត្តដើម្បីបង្ហាញការសម្រេចចិត្តបច្ចុប្បន្ន។

ខ្ញុំ​គិត​ថា​អ្នក​អាច​ទាយ​ថា​តើ​នេះ​កំពុង​ទៅ​ណា​។ ប្រសិនបើ​មនុស្ស​ដែល​បាន​បង្កើត​គំរូ​តាម​ការ​សម្រេច​ចិត្ត​បាន​រួម​បញ្ចូល​ការ​លំអៀង​ដែល​មិន​ឆ្អែតឆ្អន់ នោះ​ការ​ខុសឆ្គង​គឺ​ថា​ទិន្នន័យ​បាន​ឆ្លុះ​បញ្ចាំង​ពី​ចំណុច​នេះ​តាម​វិធី​ស្រាលៗ ប៉ុន្តែ​សំខាន់។ ការ​ផ្គូផ្គង​គំរូ​ការ​សិក្សា​តាម​ម៉ាស៊ីន ឬ​ការ​រៀន​ជ្រៅ​នឹង​ព្យាយាម​ធ្វើ​ត្រាប់តាម​ទិន្នន័យ​តាម​គណិតវិទ្យា។ មិន​មាន​ភាព​ដូច​គ្នា​នៃ​សុភវិនិច្ឆ័យ ឬ​ទិដ្ឋភាព​មនោសញ្ចេតនា​ផ្សេង​ទៀត​នៃ​ការ​បង្កើត​គំរូ​ដែល​បង្កើត​ដោយ AI ក្នុង​មួយ។

ជាងនេះទៅទៀត អ្នកអភិវឌ្ឍន៍ AI ប្រហែលជាមិនដឹងពីអ្វីដែលកំពុងកើតឡើងនោះទេ។ គណិតវិទ្យា arcane នៅក្នុង ML/DL អាចធ្វើឱ្យវាពិបាកក្នុងការបំបាត់ភាពលំអៀងដែលលាក់នៅពេលនេះ។ អ្នកនឹងសង្ឃឹមយ៉ាងត្រឹមត្រូវ ហើយរំពឹងថាអ្នកអភិវឌ្ឍន៍ AI នឹងសាកល្បងសម្រាប់ភាពលំអៀងដែលអាចកប់បាន ទោះបីជាវាពិបាកជាងវាក៏ដោយ។ ឱកាសដ៏រឹងមាំមួយមានដែលថា ទោះបីជាមានការធ្វើតេស្តយ៉ាងទូលំទូលាយថានឹងមានភាពលំអៀងនៅតែបង្កប់នៅក្នុងគំរូដែលត្រូវគ្នានឹងគំរូនៃ ML/DL ក៏ដោយ។

អ្នក​អាច​ប្រើ​សុភាសិត​ដ៏​ល្បី​ឬ​មិន​ល្អ​ខ្លះ​នៃ​ការ​ចោល​សំរាម​ក្នុង​ធុង​សំរាម។ រឿងនោះគឺថា នេះគឺស្រដៀងទៅនឹងភាពលំអៀងដែលបញ្ចូលទៅក្នុង insidiously ដូចជាភាពលំអៀងដែលលិចចូលទៅក្នុង AI ។ ក្បួនដោះស្រាយការសម្រេចចិត្ត (ADM) នៃ AI axiomatically ក្លាយជាបន្ទុកដោយភាពមិនស្មើគ្នា។

មិនល្អ។

Let’s tie this to the question about trustworthy AI

We certainly would not seem to be willing to trust AI that showcases adverse biases and discriminatory actions. Our belief, in that case, would be that such AI is decidedly not trustworthy, thus we would lean toward actively distrusting the AI. Without going overboard on an anthropomorphic comparison (I’ll say more about AI anthropomorphizing in a moment), a human that exhibited untoward biases would also be subject to rating as not being particularly trustworthy.

Digging Into Trust And Trustworthiness

Maybe we ought to take a look at what we mean when asserting that we do or do not trust someone or something. First, consider several everyday dictionary definitions of trust.

Examples of what trust definitionally means are:

  • Assured reliance on the character, ability, strength, or truth of someone or something (វចនានុក្រមអនឡាញ Merriam-Webster) ។
  • Reliance on the integrity, strength, ability, surety, etc., of a person or thing (វចនានុក្រម.com)
  • Firm belief in the reliability, truth, ability, or strength of someone or something (Oxford Languages online dictionary).

I’d like to point out that all of those definitions refer to “someone” and likewise refer to “something” as being potentially trustworthy. This is notable since some might insist that we only trust humans and that the act of trusting is reserved exclusively for humankind as our target of trustworthiness. Not so. You can have trust in your kitchen toaster. If it seems to reliably make your toast and works routinely to do so, you can assuredly have a semblance of trust about whether the toaster is in fact trustworthy.

In that same line of thinking, AI can also be the subject of our trust viewpoint. The odds are that trust associated with AI is going to be a lot more complicated than say a mundane toaster. A toaster can only usually do a handful of actions. An AI system is likely to be much more complex and appear to operate less transparently. Our ability to assess and ascertain the trustworthiness of AI is bound to be a lot harder and proffer distinct challenges.

Besides just being more complex, a typical AI system is said to be non-deterministic and potentially self-regulating or self-adjusting. We can briefly explore that notion.

A deterministic machine tends to do the same things over and over again, predictably and with a viably discernable pattern of how it is operating. You might say that a common toaster toasts roughly the same way and has toasting controls that moderate the toasting, all of which are generally predictable by the person using the toaster. In contrast, complex AI systems are often devised to be non-deterministic, meaning that they might do quite different things beyond what you might have otherwise expected. This could partially also be further amplified if the AI is written to self-adjust itself, an aspect that can advantageously allow the AI to improve in the case of ML/DL, though can also disturbingly cause the AI to falter or enter into the ranks of AI badness. You might not know what hit you, in a manner of speaking, as you were caught entirely off-guard by the AI’s actions.

What might we do to try and bring AI closer to trustworthiness?

One approach consists of trying to ensure that those building and fielding AI are abiding by a set of AI Ethics precepts. As mentioned by these AI researchers: “Trust is an attitude that an agent will behave as expected and can be relied upon to reach its goal. Trust breaks down after an error or misunderstanding between the agent and the trusting individual. The psychological state of trust in AI is an emergent property of a complex system, usually involving many cycles of design, training, deployment, measurement of performance, regulation, redesign, and retraining” (indicated in the ទំនាក់ទំនងរបស់ ACM, “Trust, Regulation, and Human-in-the-Loop AI Within the European Region” by Stuart Middleton, Emmanuel Letouze, Ali Hossaini, and Adriane Chapman, April 2022).

The gist is that if we can get AI developers to abide by Ethical AI, they hopefully will end up producing trustworthy AI. This is all well and good, but it seems somewhat impractical on a real-world basis, though it is absolutely a path worth pursuing.

នេះជាអ្វីដែលខ្ញុំចង់និយាយ។

Suppose a diligent effort is undertaken by AI developers crafting an AI system for some purpose that we’ll generally call X. They carefully make sure that the AI abides by the transparency precepts of AI Ethics. They keenly ensure that privacy is suitably built into the AI. For nearly all of the usual AI Ethics principles, the AI builders exhaustively ensure that the AI meets the given precept.

Should you now trust that AI?

Allow me to help percolate your thoughts on that open-ended question.

Turns out that cyber crooks managed to infiltrate the AI and sneakily get the AI to perform X and yet also feed the cyber hackers all of the data that the AI is collecting. By doing so, these evildoers are insidiously undercutting the privacy precept. You are blissfully unaware that this is happening under the hood of AI.

With that added piece of information, I’ll ask you the same question again.

Do you trust that AI?

I dare say that most people would right away declare that they assuredly do មិនមាន trust this particular AI. They might have trusted it earlier. They now opt to no longer consider the AI trustworthy.

A few key insights based on this simple example are worthy of contemplation:

  • Dynamics of Trust. Even the best of intentions to cover all the bases of ensuring that AI Ethics is built into an AI system are no guarantee of what the AI might turn out to be or become. Once the AI is placed into use, outsiders can potentially undermine the Ethical AI accruements.
  • Undercutting Trust From Within. The act of undercutting the trustworthiness doesn’t necessarily have to be outsiders. An insider that is doing regular upkeep to the AI system might blunder and weaken the AI toward being less trustworthy. This AI developer might be clueless about what they have wrought.
  • Inadvertent Compromises of Trust. A self-adjusting or self-regulating AI might at some point adjust itself and veer into the untrustworthy territory. Perhaps the AI attempts to bolster the transparency of the AI and yet simultaneously and inappropriately compromises the privacy facets.
  • Scattering Of Trust. Trying to achieve all of the AI Ethics tenets to the same utmost degree of trustworthiness is usually not readily viable as they are often at cross-purposes or have other inherent potential conflicts. It is a rather idealized perspective to believe that all of the Ethical AI precepts are dreamily aligned and all attainable to some equal maximizable degree.
  • Trust Can Be Costly To Attain. The cost to try and achieve a topnotch semblance of trustworthy AI via undertaking the various extensive and exhaustive steps and abiding by the litany of AI Ethics principles is going to be relatively high. You can easily argue that the cost would be prohibitive in terms of getting some AI systems into use that otherwise have important value to society, even if the AI was shall we say less than ideal from a trustworthiness desire.
  • ហើយដូច្នេះនៅលើ។

Do not misinterpret the preceding remarks to suggest that we should somehow avert the effort to thoroughly build and field trustworthy AI. You would be summarily tossing out the baby with the bathwater, as it were. The proper interpretation is that we do need to do those trusting activities to get AI into a trustworthy consideration, and yet that alone is not a cure-all or a silver bullet.

Multi-Prong Paths To Trustworthy AI

There are important additional multi-pronged ways to strive toward trustworthy AI.

For example, as I’ve previously covered in my columns, a myriad of newly emerging laws and regulations concerning AI aims to drive AI makers toward devising trustworthy AI, see តំណភ្ជាប់នៅទីនេះ និង តំណភ្ជាប់នៅទីនេះ.

These legal guardrails are crucial as an overarching means of making sure that those devising AI are held fully accountable for their AI. Without such potential legal remedies and lawful penalties, those who pell-mell rush AI into the marketplace are likely to continue doing so with little if any serious regard for achieving trustworthy AI. I might notably add, that if those laws and regulations are poorly devised or inadequately implemented, they could regrettably undercut the pursuit of trustworthy AI, perhaps ironically and oddly fostering untrustworthy AI over trustworthy AI (see my column discussions for further explanation).

I have also been a staunch advocate for what I’ve been ardently referring to as AI guardian angel bots (see my coverage at តំណភ្ជាប់នៅទីនេះ). This is an upcoming method or approach of trying to fight fire with fire, namely using AI to aid us in dealing with other AI that might or might not be trustworthy.

First, some background context will be useful.

Suppose you are opting to rely upon an AI system that you are unsure of its trustworthiness. A key concern could be that you are alone in your attempts to ferret out whether the AI is to be trusted or not. The AI is potentially computationally faster than you and can take advantage of you. You need someone or something on your side to help out.

One perspective is that there should always be a human-in-the-loop that will serve to aid you as you are making use of an AI system. This though is a problematic solution. If the AI is working in real-time, which we’ll be discussing momentarily when it comes to the advent of AI-based self-driving cars, having a human-in-the-loop might not be sufficient. The AI could be acting in real-time and by the time a designated human-in-the-loop enters the picture to figure out if the AI is operating properly, a catastrophic result might have already occurred.

As an aside, this brings up another factor about trust. We usually assign a trust level based on the context or circumstance that we are facing. You might fully trust your toddler son or daughter to be faithful toward you, but if you are out hiking and decide to rely upon the toddler to tell you whether it is safe to step on the edge of a cliff, I think you would be wise to consider whether the toddler can provide that kind of life-or-death advice. The child might do so earnestly and sincerely, and nonetheless, be unable to adequately render such advice.

The same notion is associated with trust when it comes to AI. An AI system that you are using to play checkers or chess is probably not involved in any life-or-death deliberations. You can be at more ease with your assignment of trust. An AI-based self-driving car that is barreling down a highway at high speeds requires a much more strenuous level of trust. The slightest blip by the AI driving system could lead directly to your death and the deaths of others.

In a published interview of Beena Ammanath, Executive Director of the Global Deloitte AI Institute and author of the book AI គួរឱ្យទុកចិត្ត, a similar emphasis on considering the contextual facets of where AI trustworthiness comes to play: “If you’re building an AI solution that is doing patient diagnosis, fairness and bias are super important. But if you’re building an algorithm that predicts jet engine failure, fairness and bias isn’t as important. Trustworthy AI is really a structure to get you started to think about the dimensions of trust within your organization” (VentureBeat បាន, ថ្ងៃទី 22 ខែមីនា ឆ្នាំ 2022)។

When discussing trustworthy AI, you can construe this topic in a multitude of ways.

ឧទាហរណ៍, AI ដែលគួរឱ្យទុកចិត្ត is something that we all view as a desirable and aspirational goal, namely that we should be desirous of devising and promulgating trustworthy AI. There is another usage of the catchphrase. A somewhat alternative usage is that AI ដែលគួរឱ្យទុកចិត្ត is a state of condition or measurement, such that someone might assert that they have crafted an AI system that is an instance of trustworthy AI. You can also use the phrase AI ដែលគួរឱ្យទុកចិត្ត to suggest a method or approach that can be used to attain AI trustworthiness. Etc.

On a related note, I trust that you realize that not all AI is the same and that we have to be mindful of not making blanket statements about all of AI. A particular AI system is likely to be significantly different from another AI system. One of those AI systems might be highly trustworthy, while the other might be marginally trustworthy. Be cautious in somehow assuming that AI is a monolith that is either entirely trustworthy or entirely not trustworthy.

This is simply not the case.

I’d like to next briefly cover some of my ongoing research about trustworthy AI that you might find of interest, covering the arising role of AI guardian angel bots.

នេះជារបៀបដែលវាទៅ។

You would be armed with an AI system (an AI guardian angel bot) that is devised to gauge the trustworthiness of some other AI system. The AI guardian angel bot has as a paramount focus your safety. Think of this as though you have the means to monitor the AI you are relying upon by having a different AI system in your veritable pocket, perhaps running on your smartphone or other such devices. Your proverbial AI guardian can compute on a basis that the AI you are relying upon also does, working at rapid speeds and calculating the situation at hand in real-time, far faster than a human-in-the-loop could do so.

You might at an initial glance be thinking that the AI you are already relying upon ought to have some ផ្ទៃក្នុង AI guardrails that do the same as this separately calculating AI guardian angel bot. Yes, that would certainly be desired. One qualm is that the AI guardrails built into an AI system might be integrally and prejudicially aligned with the AI per se, thus the supposed AI guardrail no longer is able to in a sense independently verify or validate the AI.

The contrasting idea is that your AI guardian angel bot is an independent or third-party AI mechanism that is distinct from the AI that you are relying upon. It sits outside of the other AI, remaining devoted to you and not devoted to the AI being monitored or assessed.

A straightforward means of thinking about this can be expressed via the following simplified equation-like statements. We might say that “P” wishes to potentially trust “R” to do a particular task “X”:

This would be the following when only people are involved:

  • Person P trusts person R to do task X.

When we opt to rely upon AI, the statement reshapes to this:

  • Person P trusts AI instance-R to do task X.

We can add the AI guardian angel bot by saying this:

  • Person P trusts AI instance-R to do task X as being monitored by AI guardian angel bot instance-Z

The AI guardian angel bot is tirelessly and relentlessly assessing the AI that you are relying upon. As such, your handy AI guardian might alert you that the trust of this other AI is unwarranted. Or, the AI guardian might electronically interact with the other AI to try and ensure that whatever variance away from being trustworthy is quickly righted, and so on (see my coverage on such details at តំណភ្ជាប់នៅទីនេះ).

The Trusty Trust Reservoir Metaphor

Since we are discussing varying levels of trust, you might find of use a handy metaphor about trustworthiness by conceiving of trust as a type of reservoir.

You have a certain amount of trust for a particular person or thing in a particular circumstance at a particular point in time. The level of the trust will rise or fall, depending upon what else happens related to that particular person or thing. The trust could be at a zero level when you have no trust whatsoever for the person or thing. The trust could be negative when you venture into having distrust of that person or thing.

In the case of AI systems, your trust reservoir for the particular AI that you are relying upon in a particular circumstance will rise or fall as dependent upon your gauging the trustworthiness of the AI. At times, you might be well aware of this varying level of trust about the AI, while in other instances you might be less aware and more so by hunch making judgments about the trustworthiness.

Ways that we’ve been discussing herein the means to boost trust levels for AI include:

  • Adherence to AI Ethics. If the AI that you are relying upon was devised by trying to adhere to the proper AI Ethics precepts, you presumably would use this understanding to boost the level of your trust reservoir for that particular AI system. As a side note, it is also possible that you might generalize to other AI systems as to their trustworthiness, likewise, though this can be at times a misleading form of what I call AI trust aura spreading (be cautious in doing this!).
  • Use a Human-In-The-Loop. If the AI has a human-in-the-loop, you might positively add to your perceived trust in the AI.
  • Establish Laws and Regulations. If there are laws and regulations associated with this particular type of AI, you might likewise boost your trust level.
  • Employ an AI Guardian Angel Bot. If you have an AI guardian angel bot at the ready, this too will raise further your trust level.

As mentioned earlier, trust can be quite brittle and fall apart in an instant (i.e., the trust reservoir rapidly and suddenly dumps out all of the built-up trust).

Imagine that you are inside an AI-based self-driving car and the AI driving suddenly makes a radical right turn, causing the wheels to squeal and nearly forcing the autonomous vehicle into an endangering rollover. What would happen to your level of trust? It would seem that even if you previously held the AI to a heightened level of trust, you would dramatically and abruptly drop your trust level, sensibly so.

At this juncture of this weighty discussion, I’d bet that you are desirous of additional illustrative examples that might showcase the nature and scope of trustworthy AI. There is a special and assuredly popular set of examples that are close to my heart. You see, in my capacity as an expert on AI including the ethical and legal ramifications, I am frequently asked to identify realistic examples that showcase AI Ethics dilemmas so that the somewhat theoretical nature of the topic can be more readily grasped. One of the most evocative areas that vividly presents this ethical AI quandary is the advent of AI-based true self-driving cars. This will serve as a handy use case or exemplar for ample discussion on the topic.

ខាងក្រោមនេះជាសំណួរដែលគួរអោយចាប់អារម្មណ៍ដែលគួរពិចារណា៖ Does the advent of AI-based true self-driving cars illuminate anything about the pursuit of trustworthy AI, and if so, what does this showcase?

ទុកពេលឱ្យខ្ញុំមួយភ្លែតដើម្បីស្រាយសំណួរ។

ជាដំបូង សូមចំណាំថា មិនមានអ្នកបើកបរមនុស្សពាក់ព័ន្ធនឹងរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដនោះទេ។ សូមចងចាំថារថយន្តដែលបើកបរដោយខ្លួនឯងពិតប្រាកដគឺត្រូវបានជំរុញតាមរយៈប្រព័ន្ធបើកបរ AI ។ មិន​ចាំបាច់​មាន​អ្នក​បើក​បរ​មនុស្ស​នៅ​កង់​នោះ​ទេ ហើយ​ក៏​មិន​មាន​ការ​ផ្តល់​ឲ្យ​មនុស្ស​ដើម្បី​បើក​រថយន្ត​ដែរ។ សម្រាប់ការគ្របដណ្តប់យ៉ាងទូលំទូលាយ និងបន្តរបស់ខ្ញុំនៃយានយន្តស្វយ័ត (AVs) និងជាពិសេសរថយន្តដែលបើកបរដោយខ្លួនឯង សូមមើល តំណភ្ជាប់នៅទីនេះ.

ខ្ញុំចង់បញ្ជាក់បន្ថែមទៀតថាតើវាមានន័យយ៉ាងម៉េចនៅពេលខ្ញុំនិយាយអំពីឡានបើកបរដោយខ្លួនឯង។

ស្វែងយល់ពីកម្រិតនៃរថយន្តបើកបរដោយខ្លួនឯង

ក្នុងនាមជាការបញ្ជាក់មួយរថយន្តបើកបរដោយខ្លួនឯងគឺជាប្រភេទមួយដែលអាយអេសបើកបររថយន្តដោយខ្លួនឯងហើយមិនមានជំនួយពីមនុស្សទេក្នុងពេលបើកបរ។

យានជំនិះគ្មានអ្នកបើកបរទាំងនេះត្រូវបានចាត់ទុកថាជាកម្រិតទី 4 និងកម្រិត 5 (សូមមើលការពន្យល់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ) ខណៈពេលដែលរថយន្តដែលតម្រូវឱ្យអ្នកបើកបរមនុស្សរួមគ្នាចែករំលែកការប្រឹងប្រែងបើកបរជាធម្មតាត្រូវបានចាត់ទុកថានៅកម្រិត 2 ឬកម្រិត 3 ។ រថយន្តដែលរួមគ្នាចែករំលែកភារកិច្ចបើកបរត្រូវបានពិពណ៌នាថាជាពាក់កណ្តាលស្វយ័ត ហើយជាធម្មតាមានភាពខុសគ្នានៃ កម្មវិធីបន្ថែមដោយស្វ័យប្រវត្តិដែលត្រូវបានគេហៅថា ADAS (Advanced Driver-Assistance Systems)។

មិនទាន់មានរថយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដនៅកម្រិតទី 5 នៅឡើយទេ ហើយយើងក៏មិនទាន់ដឹងថា តើវាអាចសម្រេចបានដែរ ឬអត់នោះទេ ហើយវានឹងចំណាយពេលយូរប៉ុណ្ណាដើម្បីទៅដល់ទីនោះ។

ទន្ទឹមនឹងនេះ កិច្ចខិតខំប្រឹងប្រែងកម្រិតទី 4 កំពុងព្យាយាមបន្តិចម្តងៗ ដើម្បីទទួលបានការអូសទាញមួយចំនួន ដោយឆ្លងកាត់ការសាកល្បងផ្លូវសាធារណៈតូចចង្អៀត និងជ្រើសរើស ទោះបីជាមានភាពចម្រូងចម្រាសលើថាតើការធ្វើតេស្តនេះគួរតែត្រូវបានអនុញ្ញាតក្នុងម្នាក់ៗក៏ដោយ (យើងទាំងអស់គ្នាគឺជាជ្រូកហ្គីណេដែលមានជីវិត ឬស្លាប់នៅក្នុងការពិសោធន៍មួយ។ កើតឡើងនៅលើផ្លូវហាយវេ និងផ្លូវរបស់យើង អ្នកខ្លះឈ្លោះគ្នា សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណនេះនៅទីនេះ).

ដោយសាររថយន្តពាក់កណ្តាលស្វ័យភាពតម្រូវឱ្យមានអ្នកបើកបរជាមនុស្សការអនុម័តប្រភេទរថយន្តទាំងនោះនឹងមិនខុសពីការបើកបរយានយន្តធម្មតាទេដូច្នេះមិនមានអ្វីថ្មីទេសម្រាប់និយាយអំពីប្រធានបទនេះ (ទោះបីជាអ្នកនឹងឃើញក៏ដោយ) ក្នុងពេលតែមួយចំនុចដែលបានធ្វើជាទូទៅអាចអនុវត្តបាន) ។

ចំពោះរថយន្តពាក់កណ្តាលស្វយ័តវាជាការសំខាន់ដែលសាធារណជនត្រូវដឹងជាមុនអំពីទិដ្ឋភាពគួរឱ្យព្រួយបារម្ភដែលកំពុងកើតឡើងនាពេលថ្មីៗនេះពោលគឺទោះបីអ្នកបើកបរមនុស្សទាំងនោះនៅតែបន្តបង្ហោះវីដេអូខ្លួនពួកគេដេកលង់លក់ក្នុងកង់រថយន្តកម្រិត ២ ឬលេខ ៣ ក៏ដោយ។ យើងទាំងអស់គ្នាត្រូវចៀសវាងកុំអោយវង្វេងស្មារតីជឿថាអ្នកបើកបរអាចយកការចាប់អារម្មណ៍របស់ពួកគេចេញពីភារកិច្ចបើកបរនៅពេលបើកបររថយន្តពាក់កណ្តាលស្វយ័ត។

អ្នកគឺជាអ្នកទទួលខុសត្រូវចំពោះសកម្មភាពបើកបររបស់យានយន្តដោយមិនគិតពីចំនួនស្វ័យប្រវត្តិកម្មដែលអាចត្រូវបានបោះចូលទៅក្នុងកម្រិត ២ ឬកម្រិត ៣ ។

Self-Driving Cars And Trustworthy AI

សម្រាប់យានយន្តបើកបរដោយខ្លួនឯងពិតប្រាកដកម្រិតទី ៤ និងទី ៥ នឹងមិនមានអ្នកបើកបរជាមនុស្សចូលរួមក្នុងការងារបើកបរឡើយ។

អ្នកកាន់កាប់ទាំងអស់នឹងក្លាយជាអ្នកដំណើរ។

អេអាយអេកំពុងធ្វើការបើកបរ។

ទិដ្ឋភាពមួយដែលត្រូវពិភាក្សាភ្លាមៗទាក់ទងនឹងការពិតដែលថាអេ។ អាយ។ អិ។ ពាក់ព័ន្ធនឹងប្រព័ន្ធបើកបរ AI សព្វថ្ងៃមិនងាយស្រួលទេ។ និយាយម៉្យាងទៀតអេអាយគឺទាំងអស់គ្នាជាកម្មវិធីរួមបញ្ចូលគ្នានៃកម្មវិធីនិងក្បួនដោះស្រាយដែលផ្អែកលើកុំព្យូទ័រហើយភាគច្រើនប្រាកដជាមិនអាចវែកញែកតាមរបៀបដែលមនុស្សអាចធ្វើបានឡើយ។

ហេតុអ្វីបានជាការសង្កត់ធ្ងន់បន្ថែមអំពីអេអាយមិនមានអារម្មណ៍?

ដោយសារតែខ្ញុំចង់គូសបញ្ជាក់ថានៅពេលពិភាក្សាអំពីតួនាទីរបស់ប្រព័ន្ធបើកបរ AI ខ្ញុំមិនបានបង្ហាញពីគុណសម្បត្តិរបស់មនុស្សទៅនឹង AI ទេ។ សូមមេត្តាជ្រាបថាមានទំនោរដែលកំពុងបន្តនិងមានគ្រោះថ្នាក់នាពេលបច្ចុប្បន្ននេះចំពោះមនុស្សវិទូ។ បើនិយាយអោយចំទៅមនុស្សកំពុងតែផ្តល់នូវមនោសញ្ចេតនាស្រដៀងនឹងមនុស្សទៅនឹងអេអាយអេសព្វថ្ងៃនេះទោះបីជាការពិតដែលមិនអាចប្រកែកបាននិងមិនអាចកាត់ថ្លៃបានថាពុំមាន AI បែបនេះនៅឡើយទេ។

ជាមួយនឹងការបំភ្លឺនោះអ្នកអាចស្មានថាប្រព័ន្ធបើកបរ AI នឹងមិនមាន“ ដឹង” ពីលក្ខណៈនៃការបើកបរ។ ការបើកបរនិងអ្វីទាំងអស់ដែលវាតម្រូវឱ្យមានកម្មវិធីជាផ្នែកមួយនៃផ្នែករឹងនិងផ្នែកទន់នៃឡានបើកបរដោយខ្លួនឯង។

សូមមុជចូលទៅក្នុងទិដ្ឋភាពជាច្រើនដែលបានមកលេងលើប្រធានបទនេះ។

ជាដំបូង វាជារឿងសំខាន់ដែលត្រូវដឹងថា មិនមែនរថយន្តដែលបើកបរដោយខ្លួនឯង AI ទាំងអស់សុទ្ធតែដូចគ្នានោះទេ។ ក្រុមហ៊ុនផលិតរថយន្តនីមួយៗ និងក្រុមហ៊ុនបច្ចេកវិទ្យាបើកបរដោយខ្លួនឯងកំពុងប្រើប្រាស់វិធីសាស្រ្តរបស់ខ្លួនក្នុងការរៀបចំរថយន្តដែលបើកបរដោយស្វ័យប្រវត្តិ។ ដូចនេះ វាពិបាកក្នុងការធ្វើសេចក្តីថ្លែងការណ៍ដ៏ទូលំទូលាយអំពីអ្វីដែលប្រព័ន្ធបើកបរ AI នឹងធ្វើឬមិនធ្វើ។

លើសពីនេះទៅទៀតនៅពេលណាដែលបញ្ជាក់ថាប្រព័ន្ធបើកបរអេអាយមិនធ្វើអ្វីជាក់លាក់ណាមួយនោះនៅពេលក្រោយនេះអាចត្រូវបានអ្នកអភិវឌ្developersន៍យកឈ្នះដែលតាមពិតកម្មវិធីកុំព្យូទ័រអាចធ្វើបាន។ មួយជំហានម្តង ៗ ប្រព័ន្ធបើកបរអេអាយអាយកំពុងត្រូវបានកែលម្អនិងពង្រីកបន្តិចម្តង ៗ ។ ការដាក់កំហិតដែលមានស្រាប់នៅថ្ងៃនេះប្រហែលជាលែងមាននៅក្នុងការបង្កើតឡើងវិញឬកំណែប្រព័ន្ធនាពេលអនាគត។

ខ្ញុំជឿជាក់ថាផ្តល់នូវការព្រមានតិចតួចគ្រប់គ្រាន់ដើម្បីបញ្ជាក់ពីអ្វីដែលខ្ញុំចង់ទាក់ទង។

We are primed now to do a deep dive into self-driving cars and trustworthy AI.

Trust is everything, especially in the case of AI-based self-driving cars.

Society seems to be warily eyeing the emergence of self-driving cars. On the one hand, there is a grand hope that the advent of true self-driving cars will demonstrably reduce the number of annual car-related fatalities. In the United States alone there are about 40,000 annual deaths and around 2.5 million injuries due to car crashes, see my collection of stats at តំណភ្ជាប់នៅទីនេះ. Humans drink and drive. Humans drive while distracted. The task of driving a car seems to consist of being able to repetitively and unerringly focus on driving and avoid getting into car crashes. As such, we might dreamily hope that AI driving systems will guide self-driving cars repetitively and unerringly. You can construe self-driving cars as a twofer, consisting of reducing the volume of car crash deaths and injuries, along with potentially making mobility available on a much wider and accessible basis.

But the concern meanwhile looms over societal perceptions as to whether self-driving cars are going to be safe enough to be on our public roadways at large.

If even one self-driving car gets into a crash or collision that leads to a single death or severe injury, you can likely anticipate that today’s somewhat built-up trust toward those AI-based driverless cars is going to precipitously drop. We saw this happen when the now-infamous incident occurred in Arizona that involved a somewhat (not really) self-driving car that ran into and killed a pedestrian (see my coverage at តំណនេះនៅទីនេះ).

Some pundits point out that it is unfair and inappropriate to base the trust of AI self-driving cars on the facet that only one such next death-producing crash or collision could undermine the already relatively crash-free public roadway trials. In addition, on a further unfair basis, the odds are that no matter which particular AI self-driving car brand or model perchance gets embroiled in a sorrowful incident, society would indubitably blame all self-driving car brands.

The entirety of self-driving cars could be summarily smeared and the industry as a whole might suffer a huge backlash leading to a possible shutdown of all public roadway trials.

A contributor to such a blowback is found in the nonsensical proclamations by outspoken self-driving car proponents that all driverless cars will be uncrashable. This idea of being uncrashable is not only outrightly wrong (see តំណភ្ជាប់នៅទីនេះ), it insidiously is setting up the self-driving car industry for a totally out-of-whack set of expectations. These outlandish and unachievable pronouncements that there will be zero deaths due to self-driving cars are fueling the misconception that any driverless car crashes are a sure sign that the whole kit and kaboodle is for naught.

There is a distinct sadness to realize that the progress toward self-driving cars and the inch-at-a-time accumulation of societal trust could be dashed away in an instant. That is going to be one heck of a showcase about the brittleness of trust.

សន្និដ្ឋាន

Many automakers and self-driving tech firms are generally abiding by AI Ethics principles, doing so to try and build and field trustworthy AI in terms of safe and reliable AI-based self-driving cars. Please realize that some of those firms are stronger and more devoted to the Ethical AI precepts than others. There are also occasional fringe or newbie self-driving car-related startups that seem to cast aside much of the AI Ethics cornerstones (see my review at តំណភ្ជាប់នៅទីនេះ).

On other fronts, new laws and regulations covering self-driving cars have gradually been getting placed on the legal books. Whether they have the needed teeth to back them up is a different matter, as likewise whether the enforcement of those laws is being taken seriously or overlooked (see my columns for analyses on this).

There is also the high-tech angle to this too. I have predicted that we will gradually see variants of AI guardian angel bots that will come to the fore in the autonomous vehicle and self-driving cars arena. We aren’t there yet. This will become more prevalent once the popularity of self-driving cars becomes more widespread.

This last point brings up a famous line about trust that you undoubtedly already know by heart.

ទុកចិត្ត ប៉ុន្តែផ្ទៀងផ្ទាត់។

We can allow ourselves to extend our trust, perhaps generously so. Meanwhile, we should also be watching like a hawk to make sure that the trust we engender is verified by both words and deeds. Let’s put some trust into AI, but verify endlessly that we are placing our trust appropriately and with our eyes wide open.

You can trust me on that.

Source: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/