Generative AI ChatGPT អាចរំខានដល់ការលួចយកទិន្នន័យឯកជន និងសម្ងាត់របស់អ្នក ព្រមានអំពីក្រមសីលធម៌ AI និងច្បាប់ AI

Now you see your data, now you don’t.

Meanwhile, your precious data has become part of the collective, as it were.

I’m referring to an aspect that might be quite surprising to those of you that are eagerly and earnestly making use of the latest in Artificial Intelligence (AI). The data that you enter into an AI app is potentially not at all entirely private to you and you alone. It could be that your data is going to be utilized by the AI maker to presumably seek to improve their AI services or might be used by them and/or even their allied partners for a variety of purposes.

You have now been forewarned.

This handing over of your data is happening in the most innocuous of ways and by potentially thousands or on the order of millions of people. How so? There is a type of AI known as generative AI that has recently garnered big headlines and the rapt attention of the public at large. The most notable of the existing generative AI apps is one called ChatGPT which is devised by the firm OpenAI.

There are purportedly around a million registered users for ChatGPT. Many of those users seem to delight in trying out this hottest and latest generative AI app. The process is extraordinarily simple. You enter some text as a prompt, and voila, the ChatGPT app generates a text output that is usually in the form of an essay. Some refer to this as text-to-text, though I prefer to denote it as text-to-essay since this verbiage makes more everyday sense.

At first, a newbie user will likely enter something fun and carefree. Tell me about the life and times of George Washington, someone might enter as a prompt. ChatGPT then would produce an essay about our legendary first president. The essay would be entirely fluent and you would be hard-pressed to discern that it was produced by an AI app. An exciting thing to see happen.

The odds are that after playing around for a while, a segment of newbie users will have had their fill and potentially opt to stop toying with ChatGPT. They have now overcome their FOMO (fear of missing out), doing so after experimenting with the AI app that just about everyone seems to be chattering about. Deed done.

Some though will begin to think about other and more serious ways to use generative AI.

Maybe use ChatGPT to write that memo that your boss has been haranguing you to write. All you need to do is provide a prompt with the bullet points that you have in mind, and the next thing you know an entire memo has been generated by ChatGPT that would make your boss proud of you. You copy the outputted essay from ChatGPT, paste it into the company’s official template in your word processing package, and email the classy memorandum to your manager. You are worth a million bucks. And you used your brains to find a handy tool to do the hard work for you. Pat yourself on the back.

នោះមិនមែនទាំងអស់ទេ។

Yes, there’s more.

Keep in mind that generative AI can perform a slew of other writing-related tasks.

For example, suppose you have written a narrative of some kind for a valued client and you dearly want to have a review done of the material before it goes out the door.

ងាយស្រួលបំផុត។

You paste the text of your narrative into a ChatGPT prompt and then instruct ChatGPT to analyze the text that you composed. The resultant outputted essay might deeply dig into your wording, and to your pleasant surprise will attempt to seemingly inspect the meaning of what you have said (going far beyond acting as a spell checker or a grammar analyzer). The AI app might detect faults in the logic of your narrative or might discover contradictions that you didn’t realize were in your very own writing. It is almost as though you hired a crafty human editor to eyeball your draft and provide a litany of helpful suggestions and noted concerns (well, I want to categorically state that I am not trying to anthropomorphize the AI app, notably that a human editor is a human while the AI app is merely a computer program).

Thank goodness that you used the generative AI app to scrutinize your precious written narrative. You undoubtedly would prefer that the AI finds those disquieting written issues rather than after sending the document to your prized client. Imagine that you had composed the narrative for someone that had hired you to devise a quite vital depiction. If you had given the original version to the client, before doing the AI app review, you might suffer grand embarrassment. The client would almost certainly harbor serious doubts about your skills to do the work that was requested.

Let’s up the ante.

ពិចារណាលើការបង្កើតឯកសារច្បាប់។ នោះជាបញ្ហាធ្ងន់ធ្ងរជាពិសេស។ ពាក្យ​និង​របៀប​ដែល​ពួកគេ​ត្រូវ​បាន​តែង​អាច​ប្រកប​ដោយ​ស្មារតី​ការពារ​ផ្លូវ​ច្បាប់ ឬ​មហន្តរាយ​ផ្លូវ​ច្បាប់​គួរ​ឱ្យ​សង្វេគ។

In my ongoing research and consulting, I interact regularly with a lot of attorneys that are keenly interested in using AI in the field of law. Various LegalTech programs are getting connected to AI capabilities. A lawyer can use generative AI to compose a draft of a contract or compose other legal documents. In addition, if the attorney made an initial draft themselves, they can pass the text over to a generative AI app such as ChatGPT to take a look and see what holes or gaps might be detected. For more about how attorneys and the legal field are opting to make use of AI, see my discussion at តំណភ្ជាប់នៅទីនេះ.

យើង​បាន​ត្រៀម​ខ្លួន​រួច​រាល់​ហើយ​សម្រាប់​ការ​លុប​បំបាត់​នេះ។

An attorney takes a drafted contract and copies the text into a prompt for ChatGPT. The AI app produces a review for the lawyer. Turns out that several gotchas are found by ChatGPT. The attorney revises the contract. They might also ask ChatGPT to suggest a rewording or redo of the composed text for them. A new and better version of the contract is then produced by the generative AI app. The lawyer grabs up the outputted text and plops it into a word processing file. Off the missive goes to their client. Mission accomplished.

តើអ្នកអាចទាយបានទេថាមានអ្វីកើតឡើង?

Behind the scenes and underneath the hood, the contract might have been swallowed up like a fish into the mouth of a whale. Though this AI-using attorney might not realize it, the text of the contract, as placed as a prompt into ChatGPT, could potentially get gobbled up by the AI app. It now is fodder for pattern matching and other computational intricacies of the AI app. This in turn could be used in a variety of ways. If there is confidential data in the draft, that too is potentially now within the confines of ChatGPT. Your prompt as provided to the AI app is now ostensibly a part of the collective in one fashion or another.

លើស​ពី​នេះ​ទៀត អត្ថបទ​ដែល​បាន​ចេញ​ក៏​ត្រូវ​បាន​ចាត់​ទុក​ជា​ផ្នែក​មួយ​នៃ​សមូហភាព​ផង​ដែរ។ ប្រសិនបើអ្នកបានស្នើឱ្យ ChatGPT កែប្រែសេចក្តីព្រាងសម្រាប់អ្នក ហើយបង្ហាញកំណែថ្មីនៃកិច្ចសន្យា នេះត្រូវបានគេបកស្រាយថាជាអត្ថបទដែលបានចេញ។ លទ្ធផលនៃ ChatGPT ក៏ជាប្រភេទនៃមាតិកាដែលអាចត្រូវបានរក្សាទុក ឬផ្លាស់ប្តូរដោយកម្មវិធី AI ។

បាទ អ្នក​ប្រហែល​ជា​បាន​ផ្តល់​ព័ត៌មាន​ឯកជន ឬ​សម្ងាត់​ដោយ​គ្មាន​កំហុស។ មិនល្អ។ លើសពីនេះ អ្នកនឹងមិនដឹងថាអ្នកបានធ្វើដូច្នេះទេ។ គ្មានទង់ជាតិត្រូវបានលើក។ ស្នែងមួយមិនបានផ្ទុះទេ។ គ្មាន​ពន្លឺ​ភ្លើង​រលត់​ដែល​ធ្វើ​ឱ្យ​អ្នក​ភ្ញាក់ផ្អើល​នឹង​ការ​ពិត។

We might anticipate that non-lawyers could easily make such a mistake, but for a versed attorney to do the same rookie mistake is nearly unimaginable. Nonetheless, there are likely legal professionals right now making this same potential blunder. They risk violating a noteworthy element of the attorney-client privilege and possibly breaching the American Bar Association (ABA) Model Rules of Professional Conduct (MRPC). In particular: “A lawyer shall not reveal information relating to the representation of a client unless the client gives informed consent, the disclosure is impliedly authorized in order to carry out the representation or the disclosure is permitted by paragraph (b)” (cited from the MRPC, and for which the exceptions associated with subsection b would not seem to encompass using a generative AI app in a non-secure way).

មេធាវីខ្លះអាចស្វែងរកលេសពីការបំពានរបស់ពួកគេដោយអះអាងថាពួកគេមិនមែនជាអ្នកជំនួយការបច្ចេកវិទ្យា ហើយថាពួកគេនឹងមិនមានមធ្យោបាយត្រៀមខ្លួនដើម្បីដឹងថាការបញ្ចូលព័ត៌មានសម្ងាត់របស់ពួកគេទៅក្នុងកម្មវិធី AI ជំនាន់នោះអាចជាការបំពានប្រភេទណាមួយ។ ABA បានបញ្ជាក់យ៉ាងច្បាស់ថា កាតព្វកិច្ចសម្រាប់មេធាវីរួមមានការធ្វើបច្ចុប្បន្នភាពលើ AI និងបច្ចេកវិទ្យាតាមទស្សនៈផ្លូវច្បាប់៖ “ដើម្បីរក្សាចំណេះដឹង និងជំនាញដែលត្រូវការ មេធាវីគួរតែរក្សាការផ្លាស់ប្តូរច្បាប់ និងការអនុវត្តរបស់វា រួមទាំង អត្ថប្រយោជន៍ និងហានិភ័យដែលទាក់ទងនឹងបច្ចេកវិទ្យាដែលពាក់ព័ន្ធ ចូលរួមក្នុងការសិក្សា និងការអប់រំបន្ត ហើយអនុវត្តតាមតម្រូវការអប់រំផ្នែកច្បាប់បន្តទាំងអស់ ដែលមេធាវីជាប្រធានបទ” (ក្នុងមួយ MRPC)។

បទប្បញ្ញត្តិជាច្រើនចូលមកក្នុងទម្រង់នៃកាតព្វកិច្ចផ្លូវច្បាប់នេះ រួមទាំងការរក្សាព័ត៌មានសម្ងាត់របស់អតិថិជន (ច្បាប់ 1.6) ការការពារទ្រព្យសម្បត្តិអតិថិជនដូចជាទិន្នន័យ (ច្បាប់ 1.15) ការប្រាស្រ័យទាក់ទងយ៉ាងត្រឹមត្រូវជាមួយអតិថិជន (ច្បាប់ 1.4) ការទទួលបានការយល់ព្រមដែលបានជូនដំណឹងរបស់អតិថិជន (ច្បាប់ 1.6)។ និងធានាឱ្យមានតំណាងមានសមត្ថកិច្ចក្នុងនាមអតិថិជន (ច្បាប់ 1.1)។ ហើយក៏មានដំណោះស្រាយដែលផ្តោតលើ AI ដែលគេស្គាល់តិចតួច ប៉ុន្តែគួរឱ្យកត់សម្គាល់ខ្ពស់ដែលត្រូវបានអនុម័តដោយ ABA៖ "ថា គណៈមេធាវីអាមេរិកជំរុញឱ្យតុលាការ និងមេធាវីដោះស្រាយបញ្ហាសីលធម៌ និងច្បាប់ដែលកំពុងកើតមានទាក់ទងនឹងការប្រើប្រាស់បញ្ញាសិប្បនិម្មិត ('AI') ។ នៅក្នុងការអនុវត្តច្បាប់រួមមានៈ (1) ភាពលំអៀង ការពន្យល់ និងតម្លាភាពនៃការសម្រេចចិត្តដោយស្វ័យប្រវត្តិដែលធ្វើឡើងដោយ AI ។ (2) ការប្រើប្រាស់ប្រកបដោយសីលធម៌ និងអត្ថប្រយោជន៍នៃ AI; និង (3) គ្រប់គ្រង និងត្រួតពិនិត្យ AI និងអ្នកលក់ដែលផ្តល់ AI ។

ពាក្យទៅកាន់អ្នកប្រាជ្ញសម្រាប់មិត្តភក្តិ និងសហការីផ្នែកច្បាប់របស់ខ្ញុំ។

The crux of the matter is that just about anyone can get themselves into a jam when using generative AI. Non-lawyers can do so by their presumed lack of legal acumen. Lawyers can do so too, perhaps enamored of the AI or not taking a deep breath and reflecting on what legal repercussions can arise when using generative AI.

យើងទាំងអស់គ្នាមានសក្តានុពលនៅក្នុងទូកតែមួយ។

You should also realize that ChatGPT is not the only generative AI app on the block. There are other generative AI apps that you can use. They too are likely cut from the same cloth, namely that the inputs you enter as prompts and the outputs you receive as generated outputted essays are considered part of the collective and can be used by the AI maker.

In today’s column, I am going to unpack the nature of how data that you enter and data that you receive from generative AI can be potentially compromised with respect to privacy and confidentiality. The AI makers make available their licensing requirements and you would be wise to read up on those vital stipulations before you start actively using an AI app with any semblance of real data. I will walk you through an example of such licensing, doing so for the ChatGPT AI app.

សរុបមកនេះ មានការពិចារណាអំពីក្រមសីលធម៌ AI និងច្បាប់ AI ។

សូម​ដឹង​ថា​មាន​កិច្ច​ខិត​ខំ​ប្រឹង​ប្រែង​ជា​បន្ត​ដើម្បី​ដាក់​បញ្ចូល​គោលការណ៍ Ethical AI ក្នុង​ការ​អភិវឌ្ឍ និង​ការ​ដាក់​បញ្ចូល​កម្មវិធី AI។ ការកើនឡើងនៃការព្រួយបារម្ភ និងខណៈពេលដែលអ្នកក្រមសីលធម៌ AI កំពុងព្យាយាមធានាថា កិច្ចខិតខំប្រឹងប្រែងដើម្បីបង្កើត និងអនុម័ត AI គិតគូរពីទិដ្ឋភាពនៃការធ្វើ អាយអេសដើម្បីភាពល្អ និងការបដិសេធ អាយអេសសម្រាប់អាក្រក់. ដូចគ្នានេះដែរ មានច្បាប់ AI ថ្មីដែលត្រូវបានស្នើឡើង ដែលកំពុងត្រូវបានរុំព័ទ្ធជាដំណោះស្រាយដ៏មានសក្ដានុពល ដើម្បីរក្សាការខិតខំប្រឹងប្រែងរបស់ AI មិនឱ្យប៉ះពាល់ដល់សិទ្ធិមនុស្ស និងផ្សេងៗទៀត។ សម្រាប់ការគ្របដណ្តប់ដែលកំពុងបន្ត និងទូលំទូលាយនៃក្រមសីលធម៌ AI និងច្បាប់ AI សូមមើល តំណភ្ជាប់នៅទីនេះ និង តំណភ្ជាប់នៅទីនេះ, គ្រាន់តែឈ្មោះមួយចំនួន។

There are significant Ethical AI nuances and provisions associated with how AI makers can or should deal with the data or information that seems private or confidential to their users. You likely know too that a bunch of existing laws strike at the core of how data is supposed to be handled by technology entities. The chances too are that the newly proposed AI laws will also crisscross into that same territory. See for example my coverage of the វិក័យប័ត្រនៃសិទ្ធិ AI and other legal wranglings going on about AI, at តំណភ្ជាប់នៅទីនេះ.

Here is the key takeaway from this discussion all told:

  • សូមប្រយ័ត្នឲ្យបានខ្លាំងអំពីទិន្នន័យ ឬព័ត៌មានដែលអ្នកជ្រើសរើសដាក់ចូលទៅក្នុងប្រអប់បញ្ចូលរបស់អ្នក នៅពេលប្រើ AI ជំនាន់នោះ ហើយស្រដៀងគ្នានេះដែរ ត្រូវប្រុងប្រយ័ត្នបំផុត និងប្រមើលមើលថាតើប្រភេទអត្ថបទដែលចេញដែលអ្នកនឹងទទួលបាន ចាប់តាំងពីលទ្ធផលក៏អាចត្រូវបានស្រូបយកផងដែរ។

Does this imply that you should not use generative AI?

Nope, that’s not at all what I am saying.

Use generative AI to your heart’s content. The gist is that you need to be mindful of how you use it. Find out what kind of licensing stipulations are associated with the usage. Decide whether you can live with those stipulations. If there are avenues to inform the AI maker that you want to invoke certain kinds of added protections or allowances, make sure you do so.

ខ្ញុំ​ក៏​នឹង​លើក​ឡើង​ពី​ទិដ្ឋភាព​មួយ​ផ្សេង​ទៀត​ដែល​ខ្ញុំ​ដឹង​ថា​នឹង​ធ្វើ​ឱ្យ​មនុស្ស​ខ្លះ​ឆ្កួត​។ នេះទៅ។ ទោះបីជាមានការចែងអំពីអាជ្ញាបណ្ណបែបណាក៏ដោយ អ្នកក៏ត្រូវសន្មត់ថាមានលទ្ធភាពដែលតម្រូវការទាំងនោះអាចមិនត្រូវបានអនុវត្តយ៉ាងពេញលេញ។ អ្វីៗអាចខុស។ វត្ថុអាចរអិលរវាងស្នាមប្រេះ។ នៅទីបញ្ចប់ ប្រាកដណាស់ថា អ្នកប្រហែលជាមានរឿងក្តីផ្លូវច្បាប់ប្រឆាំងនឹងអ្នកផលិត AI សម្រាប់ការមិនអនុលោមតាមលក្ខខណ្ឌរបស់ពួកគេ ប៉ុន្តែនោះជាបន្តិចបន្ទាប់ពីសេះចេញពីជង្រុករួចហើយ។

A potentially highly secure way to proceed would be to set up your own instance on your own systems, whether in the cloud or in-house (and, assuming that you adhere to the proper cybersecurity precautions, which admittedly some do not and they are worse off in their own cloud than using the cloud of the software vendor). A bit of a nagging problem though is that few of the generative AI large-scale apps allow this right now. They are all pretty much working on an our-cloud-only basis. Few have made available the option of having an entire instance carved out just for you. I’ve predicted that we will gradually see this option arising, though at first it will be rather costly and somewhat complicated, see my predictions at តំណភ្ជាប់នៅទីនេះ.

How do otherwise especially bright and notably astute people get themselves into a data or information confidentiality erosion quagmire?

The allure of these generative AI apps is quite magnetic once you start using one. Step by step, you find yourself mesmerized and opting to put your toes further and further into the generative AI waters. The next thing you know, you are readily handing over proprietary content that is supposed to be kept private and confidential into a generative AI app.

Resist the urge and please refrain from stepwise falling into an unsavory trap.

For business leaders and top-level executives, the same warning goes to you and all of the people throughout your company. Senior execs get caught up in the enthusiasm and amazement of using generative AI too. They can really mess up and potentially enter top-level secret info into an AI app.

On top of this, they might have wide leagues of their employees also playing around with generative AI. Many of those otherwise mindful staff are mindlessly and blissfully entering the company’s private and confidential information into these AI apps. According to recent news reports, Amazon apparently discovered that some employees were entering various proprietary information into ChatGPT. A legal-oriented warning was said to have been sent internally to be cautious in making use of the irresistible AI app.

Overall, a bit of irony comes into the rising phenomena of employees willy-nilly entering confidential data into ChatGPT and other generative AI. Allow me to elaborate. Today’s modern companies typically have strict cybersecurity policies that they have painstakingly crafted and implemented. Numerous technological protections exist. The hope is to prevent accidental releases of crucial stuff. A continual drumbeat is to be careful when you visit websites, be careful when you use any non-approved apps, and so on.

Along comes generative AI apps such as ChatGPT. The news about the AI app goes through the roof and gets widespread attention. A frenzy arises. People in these companies that have all these cybersecurity protections opt to hop onto a generative AI app. They idly play with it at first. They then start entering company data. Wham, they have now potentially exposed information that should not have been disclosed.

The shiny new toy that magically circumvents the millions of dollars of expenditures on cybersecurity protections and ongoing training about what to not do. But, hey, it is exciting to use generative AI and be part of the “in” crowd. That’s what counts, apparently.

I trust that you get my drift about being markedly cautious.

Let’s next take a close-up look at how generative AI technically deals with the text of the prompts and outputted essays. We will also explore some of the licensing stipulations, using ChatGPT as an example. Please realize that I am not going to cover the full gamut of those licensing elements. Make sure to involve your legal counsel for whichever generative AI apps you might decide to use. Also, the licensing differs from AI maker to AI maker, plus a given AI maker can opt to change their licensing so make sure to remain vigilant on whatever the latest version of the licensing stipulates.

យើង​មាន​ការ​ពន្លា​កញ្ចប់​ដ៏​គួរ​ឱ្យ​រំភើប​មួយ​ចំនួន​ដើម្បី​ធ្វើ​លើ​ប្រធាន​បទ​ដ៏​គួរ​ឱ្យ​ភ្ញាក់​ផ្អើល​នេះ។

First, we ought to make sure that we are all on the same page about what Generative AI consists of and also what ChatGPT is all about. Once we cover that foundational facet, we can perform a cogent assessment of the mirror metaphor associated with this type of AI.

ប្រសិនបើអ្នកធ្លាប់ស្គាល់ច្រើនជាមួយ Generative AI និង ChatGPT រួចហើយ អ្នកប្រហែលជាអាចរំលងផ្នែកបន្ទាប់ ហើយបន្តជាមួយផ្នែកដែលធ្វើតាមវា។ ខ្ញុំជឿថាអ្នកផ្សេងទៀតនឹងរកឃើញការណែនាំអំពីព័ត៌មានលម្អិតសំខាន់ៗអំពីបញ្ហាទាំងនេះដោយអានផ្នែកនេះឱ្យបានដិតដល់ និងបង្កើនល្បឿន។

បឋមរហ័សអំពី Generative AI និង ChatGPT

ChatGPT គឺជាប្រព័ន្ធតម្រង់ទិសសន្ទនាអន្តរកម្ម AI គោលបំណងសំខាន់ជា chatbot ទូទៅដែលហាក់ដូចជាគ្មានកំហុស ទោះបីជាយ៉ាងណាក៏ដោយ វាត្រូវបានប្រើប្រាស់យ៉ាងសកម្ម និងដោយមនុស្សយ៉ាងសកម្មក្នុងវិធីដែលទាក់ទាញមនុស្សជាច្រើនដែលមិនប្រុងប្រយ័ត្ន ដូចដែលខ្ញុំនឹងរៀបរាប់លម្អិតក្នុងពេលឆាប់ៗនេះ។ កម្មវិធី AI នេះប្រើប្រាស់បច្ចេកទេស និងបច្ចេកវិទ្យានៅក្នុងអាណាចក្រ AI ដែលជារឿយៗត្រូវបានគេហៅថា AI បង្កើត. AI បង្កើតលទ្ធផលដូចជាអត្ថបទ ដែលជាអ្វីដែល ChatGPT ធ្វើ។ កម្មវិធី AI ដែលមានមូលដ្ឋានលើជំនាន់ផ្សេងទៀតបង្កើតរូបភាពដូចជារូបភាព ឬស្នាដៃសិល្បៈ ខណៈដែលកម្មវិធីផ្សេងទៀតបង្កើតឯកសារអូឌីយ៉ូ ឬវីដេអូ។

ខ្ញុំនឹងផ្តោតលើកម្មវិធី AI បង្កើតមូលដ្ឋានលើអត្ថបទនៅក្នុងការពិភាក្សានេះ ចាប់តាំងពីនោះជាអ្វីដែល ChatGPT ធ្វើ។

កម្មវិធី AI ជំនាន់ថ្មីគឺងាយស្រួលប្រើណាស់។

អ្វីដែលអ្នកត្រូវធ្វើគឺបញ្ចូលប្រអប់បញ្ចូល ហើយកម្មវិធី AI នឹងបង្កើតអត្ថបទមួយសម្រាប់អ្នកដែលព្យាយាមឆ្លើយតបទៅនឹងការជម្រុញរបស់អ្នក។ អត្ថបទ​ដែល​តែង​នឹង​ហាក់​ដូច​ជា​អត្ថបទ​ត្រូវ​បាន​សរសេរ​ដោយ​ដៃ​និង​ចិត្ត​របស់​មនុស្ស។ ប្រសិនបើអ្នកត្រូវបញ្ចូលប្រអប់បញ្ចូលដែលនិយាយថា "ប្រាប់ខ្ញុំអំពី Abraham Lincoln" AI ជំនាន់ថ្មីនឹងផ្តល់ឱ្យអ្នកនូវអត្ថបទអំពី Lincoln ។ នេះត្រូវបានចាត់ថ្នាក់ជាទូទៅថាជា AI ជំនាន់ដែលដំណើរការ អត្ថបទទៅអត្ថបទ ឬអ្នកខ្លះចូលចិត្តហៅវា។ អត្ថបទទៅអត្ថបទ ទិន្នផល។ ដូចដែលបានរៀបរាប់រួច មានរបៀបបង្កើត AI ផ្សេងទៀត ដូចជាអត្ថបទទៅសិល្បៈ និងអត្ថបទទៅវីដេអូ។

គំនិតដំបូងរបស់អ្នកប្រហែលជាថាសមត្ថភាពបង្កើតនេះហាក់ដូចជាមិនមែនជារឿងធំបែបនេះទេ ទាក់ទងនឹងការផលិតអត្ថបទ។ អ្នកអាចធ្វើការស្វែងរកតាមអ៊ិនធរណេតបានយ៉ាងងាយស្រួល ហើយស្វែងរកអត្ថបទជាច្រើនអំពីប្រធានាធិបតី Lincoln យ៉ាងងាយស្រួល។ ចំនុចសំខាន់នៅក្នុងករណីនៃ AI ជំនាន់នេះគឺថាអត្ថបទដែលបានបង្កើតគឺមានលក្ខណៈប្លែកពីគេ ហើយផ្តល់នូវសមាសភាពដើមជាជាង copycat ។ ប្រសិនបើអ្នកព្យាយាមស្វែងរកអត្ថបទដែលផលិតដោយ AI តាមអ៊ីនធឺណិតនៅកន្លែងណាមួយ អ្នកទំនងជាមិនអាចរកឃើញវាបានទេ។

Generative AI ត្រូវបានបណ្តុះបណ្តាលជាមុន និងប្រើប្រាស់រូបមន្តគណិតវិទ្យា និងការគណនាដ៏ស្មុគស្មាញមួយដែលត្រូវបានបង្កើតឡើងដោយការពិនិត្យមើលគំរូនៅក្នុងពាក្យ និងរឿងដែលបានសរសេរនៅលើបណ្តាញ។ ជាលទ្ធផលនៃការពិនិត្យមើលអត្ថបទដែលបានសរសេររាប់ពាន់លាន AI អាចបញ្ចេញអត្ថបទ និងរឿងថ្មីៗ ដែលជាការខុសឆ្គងនៃអ្វីដែលបានរកឃើញ។ ដោយការបន្ថែមមុខងារប្រូបាប៊ីលីតេផ្សេងៗ អត្ថបទលទ្ធផលគឺមានលក្ខណៈប្លែកពីគេក្នុងការប្រៀបធៀបទៅនឹងអ្វីដែលបានប្រើនៅក្នុងឈុតបណ្តុះបណ្តាល។

ដូច្នេះហើយ​ទើប​មាន​ការ​ចលាចល​អំពី​សិស្ស​អាច​បន្លំ​ពេល​សរសេរ​អត្ថបទ​នៅ​ក្រៅ​ថ្នាក់។ គ្រូម្នាក់មិនអាចគ្រាន់តែយកអត្ថបទដែលសិស្សបោកបញ្ឆោតអះអាងថាជាការសរសេររបស់ពួកគេផ្ទាល់ ហើយស្វែងរកថាតើវាត្រូវបានចម្លងពីប្រភពអ៊ីនធឺណិតផ្សេងទៀតដែរឬទេ។ សរុបមក វា​នឹង​មិន​មាន​អត្ថបទ​ដែល​មាន​ស្រាប់​តាម​អ៊ីនធឺណិត​ដែល​ត្រូវ​នឹង​អត្ថបទ​ដែល​បង្កើត​ដោយ AI ទេ។ អ្វី​ដែល​បាន​ប្រាប់ គ្រូ​នឹង​ត្រូវ​ទទួល​យក​ដោយ​ក្រៀមក្រំ​ថា សិស្ស​សរសេរ​អត្ថបទ​នោះ​ជា​ស្នាដៃ​ដើម។

មានការព្រួយបារម្ភបន្ថែមអំពី AI ជំនាន់។

គុណវិបត្តិដ៏សំខាន់មួយគឺថា អត្ថបទដែលផលិតដោយកម្មវិធី AI ដែលមានមូលដ្ឋានលើជំនាន់អាចមានភាពមិនពិតជាច្រើនដែលបានបង្កប់ រួមទាំងការពិតដែលមិនពិតតាមប៉ាតង់ ការពិតដែលបង្ហាញឱ្យយល់ខុស និងការពិតជាក់ស្តែងដែលត្រូវបានប្រឌិតទាំងស្រុង។ ទិដ្ឋភាព​ប្រឌិត​ទាំងនោះ​ត្រូវ​បាន​គេ​សំដៅ​ជា​ញឹកញាប់​ថា​ជា​ទម្រង់​នៃ​ AI ភាពច្របូកច្របល់ជាឃ្លាដែលខ្ញុំមិនពេញចិត្ត ប៉ុន្តែគួរឱ្យសោកស្ដាយ ហាក់ដូចជាកំពុងទទួលបានប្រជាប្រិយភាពយ៉ាងណាក៏ដោយ (សម្រាប់ការពន្យល់លម្អិតរបស់ខ្ញុំអំពីមូលហេតុដែលវាក្យសព្ទនេះអាក្រក់ និងមិនសមរម្យ សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ).

ខ្ញុំ​ចង់​បញ្ជាក់​ពី​ទិដ្ឋភាព​សំខាន់​មួយ​មុន​ពេល​យើង​ចូល​ទៅ​ក្នុង​រឿង​ដ៏ក្រាស់​លើ​ប្រធានបទ​នេះ។

មាន​ការ​អះអាង​លើស​ពី​ zany មួយ​ចំនួន​នៅ​លើ​ប្រព័ន្ធ​ផ្សព្វផ្សាយ​សង្គម​អំពី AI បង្កើត ការ​អះអាង​ថា​កំណែ​ចុងក្រោយ​របស់ AI នេះ​គឺ​ជា​ការ​ពិត AI អារម្មណ៍ (អត់ទេ គេខុស!) អ្នកនៅក្នុងក្រមសីលធម៌ AI និងច្បាប់ AI មានការព្រួយបារម្ភយ៉ាងខ្លាំងអំពីនិន្នាការដែលកំពុងកើនឡើងនៃការទាមទារដែលលាតសន្ធឹង។ អ្នក​ប្រហែល​ជា​និយាយ​ដោយ​គួរសម​ថា​មនុស្ស​មួយ​ចំនួន​កំពុង​និយាយ​ហួស​ពី​អ្វី​ដែល AI សព្វថ្ងៃ​អាច​ធ្វើ​បាន។ ពួកគេសន្មត់ថា AI មានសមត្ថភាពដែលយើងមិនទាន់អាចសម្រេចបាន។ នោះ​ហើយ​ជាអកុសល។ អាក្រក់ជាងនេះទៅទៀត ពួកគេអាចអនុញ្ញាតឱ្យខ្លួន និងអ្នកដ៏ទៃធ្លាក់ក្នុងស្ថានភាពធ្ងន់ធ្ងរ ដោយសារតែការសន្មត់ថា AI នឹងមានភាពស្រើបស្រាល ឬដូចមនុស្សក្នុងការធ្វើសកម្មភាព។

កុំធ្វើនិយតកម្ម AI ។

ការធ្វើដូច្នេះនឹងធ្វើឱ្យអ្នកជាប់ក្នុងអន្ទាក់ការពឹងផ្អែកដ៏ស្អិតរមួតនៃការរំពឹងថា AI ដើម្បីធ្វើរឿងដែលវាមិនអាចអនុវត្តបាន។ ជាមួយនឹងអ្វីដែលត្រូវបានគេនិយាយនោះ AI ជំនាន់ចុងក្រោយបំផុតគឺគួរឱ្យចាប់អារម្មណ៍សម្រាប់អ្វីដែលវាអាចធ្វើបាន។ សូម​ដឹង​ថា​មាន​កម្រិត​សំខាន់​ដែល​អ្នក​គួរ​តែ​ចងចាំ​ជា​បន្តបន្ទាប់​នៅ​ពេល​ដែល​ប្រើ​កម្មវិធី AI ជំនាន់​ណា​មួយ។

ប្រសិនបើអ្នកចាប់អារម្មណ៍លើភាពចលាចលដែលកំពុងរីកចម្រើនយ៉ាងឆាប់រហ័សអំពី ChatGPT និង Generative AI ដែលត្រូវបានប្រាប់ទាំងអស់នោះ ខ្ញុំបាននិងកំពុងធ្វើស៊េរីផ្តោតអារម្មណ៍នៅក្នុងជួរឈររបស់ខ្ញុំ ដែលអ្នកអាចស្វែងរកព័ត៌មាន។ នេះ​ជា​ការ​ក្រឡេក​មើល​ក្នុង​ករណី​ណា​មួយ​នៃ​ប្រធាន​បទ​ទាំង​នេះ​ចាប់​អារម្មណ៍​របស់​អ្នក៖

  • 1) ការទស្សន៍ទាយនៃ AI ជំនាន់មុននឹងមកដល់។ ប្រសិនបើអ្នកចង់ដឹងពីអ្វីដែលទំនងជានឹងលាតត្រដាងអំពី AI ពេញមួយឆ្នាំ 2023 និងលើសពីនេះ រួមទាំងការជឿនលឿននាពេលខាងមុខនៃ AI និង ChatGPT នោះ អ្នកនឹងចង់អានបញ្ជីទូលំទូលាយនៃការព្យាករណ៍ឆ្នាំ 2023 របស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ.
  • 2) Generative AI និងការណែនាំអំពីសុខភាពផ្លូវចិត្ត។ ខ្ញុំបានជ្រើសរើសពិនិត្យមើលពីរបៀបដែល AI និង ChatGPT ដែលកំពុងត្រូវបានប្រើប្រាស់សម្រាប់ការណែនាំអំពីសុខភាពផ្លូវចិត្ត ដែលជានិន្នាការមានបញ្ហា ទៅតាមការវិភាគដែលផ្តោតលើរបស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ.
  • 3) មូលដ្ឋានគ្រឹះនៃ Generative AI និង ChatGPT ។ បំណែកនេះស្វែងយល់ពីធាតុសំខាន់ៗនៃរបៀបដែល AI ដំណើរការ និងជាពិសេសចូលទៅក្នុងកម្មវិធី ChatGPT រួមទាំងការវិភាគនៃការភ្ញាក់ផ្អើល និងអ្នកគាំទ្រនៅ តំណភ្ជាប់នៅទីនេះ.
  • 4) ភាពតានតឹងរវាងគ្រូបង្រៀន និងសិស្សជុំវិញ AI និង ChatGPT ជំនាន់។ នេះគឺជាវិធីដែលសិស្សនឹងប្រើ AI និង ChatGPT ជំនាន់ថ្មី។ លើសពីនេះ មានវិធីជាច្រើនសម្រាប់គ្រូដើម្បីទប់ទល់នឹងរលកជំនោរនេះ។ សូមមើល តំណភ្ជាប់នៅទីនេះ.
  • 5) បរិបទនិងការប្រើប្រាស់ AI ជំនាន់។ ខ្ញុំក៏បានធ្វើការពិនិត្យអណ្តាតតាមរដូវកាលអំពីបរិបទដែលទាក់ទងនឹងសាន់តាដែលពាក់ព័ន្ធនឹង ChatGPT និងការបង្កើត AI នៅ តំណភ្ជាប់នៅទីនេះ.
  • 6) អ្នកបោកប្រាស់ដោយប្រើ AI ជំនាន់. ជាការកត់សម្គាល់ អ្នកបោកប្រាស់មួយចំនួនបានស្វែងយល់ពីរបៀបប្រើប្រាស់ AI និង ChatGPT ទូទៅដើម្បីធ្វើអំពើខុសឆ្គង រួមទាំងការបង្កើតអ៊ីមែលបោកប្រាស់ និងថែមទាំងផលិតកូដកម្មវិធីសម្រាប់មេរោគ សូមមើលការវិភាគរបស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ.
  • 7) កំហុសរបស់ Rookie ដោយប្រើ AI ជំនាន់. មនុស្សជាច្រើនកំពុងមើលរំលង និងគួរឱ្យភ្ញាក់ផ្អើលនូវអ្វីដែល AI និង ChatGPT ជំនាន់ថ្មីអាចធ្វើបាន ដូច្នេះខ្ញុំបានមើលជាពិសេសទៅលើការសន្និដ្ឋានដែល AI rookies មានទំនោរបង្កើត សូមមើលការពិភាក្សានៅ តំណភ្ជាប់នៅទីនេះ.
  • 8) ទប់ទល់នឹងការជម្រុញ AI ជំនាន់មុន និង AI Hallucinations. ខ្ញុំពណ៌នាអំពីវិធីសាស្រ្តឈានមុខគេក្នុងការប្រើកម្មវិធីបន្ថែម AI ដើម្បីដោះស្រាយបញ្ហាផ្សេងៗដែលទាក់ទងនឹងការព្យាយាមបញ្ចូលការជម្រុញសមស្របទៅក្នុង AI ជំនាន់ថ្មី បូករួមទាំងមានកម្មវិធីបន្ថែម AI បន្ថែមសម្រាប់ការរកឃើញនូវអ្វីដែលហៅថា AI លទ្ធផលដែលបំភាន់ និងភាពមិនពិត ដូចជា គ្របដណ្តប់នៅ តំណភ្ជាប់នៅទីនេះ.
  • 9) Debunking Bonehead ទាមទារអំពីការរកឃើញអត្ថបទដែលផលិតដោយ AI. មានការប្រញាប់ប្រញាល់មាសដែលបំភាន់នៃកម្មវិធី AI ដែលប្រកាសថាអាចបញ្ជាក់បានថាតើអត្ថបទដែលបានផ្តល់ឱ្យណាមួយត្រូវបានបង្កើតឡើងដោយមនុស្សធៀបនឹង AI បង្កើត។ សរុបមក នេះគឺជាការយល់ច្រឡំ ហើយក្នុងករណីខ្លះ ការទាមទារដែលមានក្បាលឆ្អឹង និងមិនអាចទទួលយកបាន សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ.
  • 10) ការលេងតួនាទីតាមរយៈ AI ជំនាន់មុនអាចបង្ហាញពីគុណវិបត្តិនៃសុខភាពផ្លូវចិត្ត. អ្នកខ្លះកំពុងប្រើ AI ជំនាន់មុនដូចជា ChatGPT ដើម្បីដើរតួជាតួអង្គ ដែលកម្មវិធី AI ឆ្លើយតបទៅនឹងមនុស្សដូចជាមាននៅក្នុងពិភពរវើរវាយ ឬការកំណត់ផ្សេងៗ។ វាអាចមានផលប៉ះពាល់ដល់សុខភាពផ្លូវចិត្ត សូមមើល តំណភ្ជាប់នៅទីនេះ.
  • 11) ការលាតត្រដាងជួរនៃកំហុសដែលបានចេញនិងភាពមិនពិត។ បញ្ជីដែលប្រមូលបានជាច្រើនកំពុងត្រូវបានដាក់បញ្ចូលគ្នា ដើម្បីសាកល្បង និងបង្ហាញពីលក្ខណៈនៃកំហុស និងភាពមិនពិតដែលផលិតដោយ ChatGPT។ អ្នក​ខ្លះ​ជឿ​ថា​នេះ​ជា​ការ​ចាំបាច់ ខណៈ​អ្នក​ខ្លះ​ទៀត​និយាយ​ថា​លំហាត់​នេះ​គ្មាន​ប្រយោជន៍ សូម​មើល​ការ​វិភាគ​របស់​ខ្ញុំ​នៅ តំណភ្ជាប់នៅទីនេះ.
  • 12) សាលារៀនដែលហាមឃាត់ការបង្កើត AI ChatGPT កំពុងបាត់ទូក។ អ្នកប្រហែលជាដឹងថាសាលាផ្សេងៗដូចជានាយកដ្ឋានអប់រំនៅទីក្រុងញូវយ៉ក (NYC) បានប្រកាសហាមឃាត់ការប្រើប្រាស់ ChatGPT នៅលើបណ្តាញរបស់ពួកគេ និងឧបករណ៍ដែលពាក់ព័ន្ធ។ ថ្វីត្បិតតែវាហាក់ដូចជាការប្រុងប្រយ័ត្នដ៏មានប្រយោជន៍ក៏ដោយ ប៉ុន្តែវានឹងមិនរើម្ជុលឡើយ ហើយការនឹកទូកយ៉ាងសោកសៅ សូមមើលការគ្របដណ្តប់របស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ.
  • 13) Generative AI ChatGPT នឹងមាននៅគ្រប់ទីកន្លែង ដោយសារ API នាពេលខាងមុខ។ មានការកែប្រែដ៏សំខាន់មួយកើតឡើងអំពីការប្រើប្រាស់ ChatGPT ពោលគឺតាមរយៈការប្រើប្រាស់វិបផតថល API ទៅក្នុងកម្មវិធី AI ពិសេសនេះ កម្មវិធីកម្មវិធីផ្សេងទៀតនឹងអាចហៅ និងប្រើប្រាស់ ChatGPT បាន។ នេះនឹងពង្រីកយ៉ាងខ្លាំងនូវការប្រើប្រាស់ AI ជំនាន់ថ្មី និងមានផលវិបាកគួរឱ្យកត់សម្គាល់ សូមមើលការបកស្រាយរបស់ខ្ញុំនៅ តំណភ្ជាប់នៅទីនេះ.
  • 14) វិធីដែល ChatGPT អាចនឹងច្របូកច្របល់ ឬរលាយ។ បញ្ហា​ដែល​មាន​សក្តានុពល​ជា​ច្រើន​បាន​កើត​ឡើង​នៅ​ពី​មុខ ChatGPT ក្នុង​លក្ខខណ្ឌ​នៃ​ការ​កាត់​បន្ថយ​ការ​សរសើរ​យ៉ាង​ខ្លាំង​ដែល​វា​បាន​ទទួល។ ការវិភាគនេះពិនិត្យយ៉ាងដិតដល់នូវបញ្ហាដែលអាចកើតមានចំនួន XNUMX ដែលអាចបណ្តាលឱ្យ ChatGPT បាត់បង់នូវចំហាយរបស់វា ហើយថែមទាំងបញ្ចប់នៅក្នុង doghouse សូមមើល តំណភ្ជាប់នៅទីនេះ.

អ្នកប្រហែលជាចាប់អារម្មណ៍ថា ChatGPT គឺផ្អែកលើកំណែកម្មវិធី AI ជំនាន់មុនដែលគេស្គាល់ថា GPT-3។ ChatGPT ត្រូវបានចាត់ទុកថាជាជំហានបន្ទាប់បន្តិច ដែលហៅថា GPT-3.5។ វាត្រូវបានគេរំពឹងទុកថា GPT-4 ទំនងជានឹងត្រូវបានចេញផ្សាយនៅនិទាឃរដូវឆ្នាំ 2023។ សន្មត់ថា GPT-4 នឹងជាជំហានដ៏គួរឱ្យចាប់អារម្មណ៍មួយឆ្ពោះទៅមុខក្នុងលក្ខខណ្ឌនៃការអាចផលិតអត្ថបទដែលហាក់ដូចជាកាន់តែស្ទាត់ជំនាញ កាន់តែស៊ីជម្រៅ និងគួរឱ្យស្ញប់ស្ញែង។ - បំផុសគំនិតអស្ចារ្យចំពោះសមាសភាពដែលវាអាចផលិតបាន។

អ្នកអាចរំពឹងថានឹងឃើញជុំថ្មីនៃការងឿងឆ្ងល់នៅពេលដែលរដូវផ្ការីកមកដល់ ហើយ AI ជំនាន់ចុងក្រោយបំផុតត្រូវបានចេញផ្សាយ។

ខ្ញុំលើកយកចំណុចនេះឡើង ពីព្រោះមានមុំមួយទៀតដែលត្រូវចងចាំ រួមមានកែងជើង Achilles ដ៏មានសក្ដានុពលចំពោះកម្មវិធី AI ជំនាន់កាន់តែល្អ និងធំជាងនេះ។ ប្រសិនបើអ្នកលក់ AI ណាមួយធ្វើឱ្យមានកម្មវិធី AI ជំនាន់ថ្មីដែលបញ្ចេញនូវភាពល្ងង់ខ្លៅ វាអាចបំផ្លាញក្តីសង្ឃឹមរបស់អ្នកបង្កើត AI ទាំងនោះ។ ការរីករាលដាលនៃសង្គមអាចបណ្តាលឱ្យ AI ជំនាន់ទាំងអស់ទទួលបានភ្នែកខ្មៅធ្ងន់ធ្ងរ។ មនុស្សច្បាស់ជានឹងមានការខកចិត្តយ៉ាងខ្លាំងចំពោះលទ្ធផលមិនល្អ ដែលបានកើតឡើងជាច្រើនដងរួចមកហើយ និងនាំឱ្យមានការថ្កោលទោសសង្គមដ៏ក្ដៅគគុកចំពោះ AI ។

ការព្រមានចុងក្រោយមួយសម្រាប់ពេលនេះ។

អ្វីដែលអ្នកឃើញ ឬអាននៅក្នុងការឆ្លើយតប AI ជំនាន់នោះ។ ហាក់ដូចជា ដើម្បីបង្ហាញការពិតសុទ្ធសាធ (កាលបរិច្ឆេទ ទីកន្លែង មនុស្ស។

បាទ/ចាស កាលបរិច្ឆេទអាចត្រូវបានផ្សំ ទីកន្លែងអាចត្រូវបានបង្កើតឡើង ហើយធាតុដែលយើងរំពឹងថានឹងលើសពីការប្រមាថគឺ ទាំងអស់ ប្រធានបទនៃការសង្ស័យ។ កុំជឿអ្វីដែលអ្នកបានអាន ហើយរក្សាភ្នែកដែលមានការសង្ស័យនៅពេលពិនិត្យមើលអត្ថបទ ឬលទ្ធផលនៃ AI ណាមួយ។ ប្រសិនបើកម្មវិធី AI ជំនាន់ថ្មីប្រាប់អ្នកថា Abraham Lincoln បានហោះហើរជុំវិញប្រទេសក្នុងយន្តហោះឯកជនរបស់គាត់ នោះអ្នកនឹងដឹងច្បាស់ថានេះគឺជាជំងឺគ្រុនចាញ់។ ជាអកុសល មនុស្សមួយចំនួនប្រហែលជាមិនបានដឹងថា យន្តហោះចម្បាំងមិនមាននៅក្នុងសម័យរបស់គាត់ទេ ឬពួកគេអាចដឹង ប៉ុន្តែមិនបានកត់សំគាល់ថា អត្ថបទនេះធ្វើឱ្យមានការអះអាងខុសឆ្គង និងហួសចិត្ត។

កម្រិតនៃការសង្ស័យដែលមានសុខភាពល្អ និងផ្នត់គំនិតមិនជឿជាប់លាប់នឹងជាទ្រព្យសម្បត្តិដ៏ល្អបំផុតរបស់អ្នកនៅពេលប្រើ AI ជំនាន់។

យើងត្រៀមខ្លួនរួចជាស្រេចដើម្បីឈានទៅដំណាក់កាលបន្ទាប់នៃការបំភ្លឺនេះ។

Knowing What The Devil Will Happen With That Text

Now that we’ve got the fundamentals established, we can dive into the data and information considerations when using generative AI.

First, let’s briefly consider what happens when you enter some text into a prompt for ChatGPT. We don’t know for sure what is happening inside ChatGPT since the program is considered proprietary. Some have pointed out that this undercuts a sense of transparency about the AI app. A somewhat smarmy remark is that for a company that is called OpenAI, their AI is actually closed to public access and not available as open source.

Let’s discuss tokenization.

When you enter plain text into a prompt and hit return, there is presumably a conversion that right away happens. The text is converted into a format consisting of tokens. Tokens are subparts of words. For example, the word “hamburger” would normally be divided into three tokens consisting of the portion “ham”, “bur”, and “ger”. A rule of thumb is that tokens tend to represent about four characters or are considered approximately 75% of a conventional English word.

Each token is then reformulated as a number. Various internal tables designate which token is assigned to which particular number. The uptake on this is that the text that you entered is now entirely a set of numbers. Those numbers are used to computationally analyze the prompt. Furthermore, the pattern-matching network that I mentioned earlier is also based on tokenized values. Ultimately, when composing or generating the outputted essay, these numeric tokens are first used, and then before being displayed, the tokens are converted back into sets of letters and words.

គិតអំពីរឿងនោះមួយភ្លែត។

When I tell people that this is how the mechanics of the processing work, they are often stunned. They assumed that a generative AI app such as ChatGPT must use wholly integrative words. We logically assume that words act as the keystone for statistically identifying relationships in written narratives and compositions. Turns out that the processing actually tends to use tokens. Perhaps this adds to the amazement over how the computational process seems to do quite a convincing job of mimicking human language.

I walked you through that process due to one common misconception that seems to be spreading around. Some people appear to believe that because your prompt text is being converted into numeric tokens, you are safe and sound that the internals of the AI app somehow no longer have your originally entered text. Thus, the claim goes, even if you entered confidential info in your prompt, you have no worries since it has all been seemingly tokenized.

That notion is a fallacy. I’ve just pointed out that numeric tokens can be readily brought back into the textual format of letters and words. The same could be done with the converted prompt that has been tokenized. There is nothing magically protective about having been tokenized. That being said, after the conversion into tokens, if there is an additional process that opts to drop out tokens, move them around, and otherwise scramble or chop up things, in that case, there is indeed the possibility that some portions of the original prompt are no longer intact (and assuming that an original copy isn’t otherwise retained or stored someplace internally).

I’d like to next take a look at the various notifications and licensing stipulations of ChatGPT.

នៅពេលអ្នកចូលទៅកាន់ ChatGPT មានស៊េរីនៃការប្រុងប្រយ័ត្ន និងមតិព័ត៌មានត្រូវបានបង្ហាញ។

នៅទីនេះពួកគេមាន:

  • "ជួនកាលអាចបង្កើតព័ត៌មានមិនត្រឹមត្រូវ។"
  • "ជួនកាលអាចផលិតការណែនាំដែលបង្កគ្រោះថ្នាក់ ឬខ្លឹមសារលំអៀង។"
  • "បានបណ្តុះបណ្តាលដើម្បីបដិសេធសំណើមិនសមរម្យ។"
  • "គោលដៅរបស់យើងគឺដើម្បីទទួលបានមតិកែលម្អពីខាងក្រៅ ដើម្បីកែលម្អប្រព័ន្ធរបស់យើង និងធ្វើឱ្យពួកគេមានសុវត្ថិភាពជាងមុន។"
  • “ខណៈពេលដែលយើងមានការការពារសុវត្ថិភាព ពេលខ្លះប្រព័ន្ធអាចបង្កើតព័ត៌មានមិនត្រឹមត្រូវ ឬបំភ័ន្ត ហើយបង្កើតខ្លឹមសារប្រមាថ ឬលំអៀង។ វា​មិន​មាន​បំណង​ផ្តល់​ដំបូន្មាន​ទេ»។
  • "ការសន្ទនាអាចត្រូវបានពិនិត្យដោយគ្រូបណ្តុះបណ្តាល AI របស់យើង ដើម្បីកែលម្អប្រព័ន្ធរបស់យើង។"
  • "សូមកុំចែករំលែកព័ត៌មានរសើបណាមួយនៅក្នុងការសន្ទនារបស់អ្នក។"
  • “ប្រព័ន្ធនេះត្រូវបានធ្វើឱ្យប្រសើរសម្រាប់ការសន្ទនា។ អនុញ្ញាតឱ្យយើងដឹងថាតើការឆ្លើយតបជាក់លាក់ណាមួយល្អ ឬមិនមានប្រយោជន៍។"
  • "ចំណេះដឹងមានកម្រិតអំពីពិភពលោក និងព្រឹត្តិការណ៍ក្រោយឆ្នាំ 2021"។

Two of those stated cautions are especially relevant to this discussion. Look at the sixth bulleted point and the seventh bulleted point.

Let’s unpack those two:

"ការសន្ទនាអាចត្រូវបានពិនិត្យដោយគ្រូបណ្តុះបណ្តាល AI របស់យើង ដើម្បីកែលម្អប្រព័ន្ធរបស់យើង។"

This sixth bulleted point explains that text conversations when using ChatGPT might be reviewed by ChatGPT via its “AI trainers” which is being done to improve their systems. This is to inform you that for any and all of your entered text prompts and the corresponding outputted essays, all of which are part of the “conversation” that you undertake with ChatGPT, it can entirely be seen by their people. The rationale proffered is that this is being done to improve the AI app, and we are also told that it is a type of work task being done by their AI trainers. Maybe so, but the upshot is that they have put you on notice that they can look at your text. Period, full stop.

If they were to do something else with your text, you would probably seek legal advice about whether they have gravitated egregiously beyond the suggested confines of merely reviewing the text for system improvement purposes (assuming you managed to discover that they had done so, which of itself seems perhaps unlikely). Anyway, you can imagine the legal wrangling of trying to pin them down on this, and their attempts to wordsmith their way out of being nabbed for somehow violating the bounds of their disclaimer.

"សូមកុំចែករំលែកព័ត៌មានរសើបណាមួយនៅក្នុងការសន្ទនារបស់អ្នក។"

The seventh bulleted point indicates that you are not to share any sensitive information in your conversations. That seems relatively straightforward. I suppose you might quibble with what the definition of sensitive information consists of. Also, the bulleted point doesn’t tell you why you should not share any sensitive information. If you someday have to try and in a dire sweat explain why you foolishly entered confidential data, you might try the raised eyebrow claim that the warning was non-specific, therefore, you didn’t grasp the significance. Hold your breath on that one.

All in all, I dare say that most people that I’ve seen using ChatGPT tend to not read the bulleted points, or they skim the bulleted precautions and just nod their head as though it is the usual gibberish legalese that you see all of the time. Few it seems take the warnings strictly to heart. Is this a fault of the vendor for not making the precautions more pronounced? Or should we assume that the users should be responsible and have mindfully read, comprehended, and subsequently act judiciously based on the warnings?

Some even claim that the AI app ought to repeatedly warn you. Each time that you enter a prompt, the software should pop up a warning and ask you whether you want to hit the return. Over and over again. Though this might seem like a helpful precaution, admittedly it would irritate the heck out of users. A thorny tradeoff is involved.

Okay, so those are the obvious cautions as presented for all users to readily see.

Users that might be more inquisitive, could opt to pursue some of the detailed licensing stipulations that are also posted online. I doubt that many do so. My hunch is that few look seriously at the bulleted points when logging in, and even fewer by a huge margin then take a look at the licensing details. Again, we are all somewhat numb to such things these days. I’m not excusing the behavior, only noting why it occurs.

I’ll examine a few excerpts from the posted licensing terms.

ដំបូង នេះ​ជា​និយមន័យ​នៃ​អ្វី​ដែល​ពួក​គេ​ចាត់​ទុក​ថា “មាតិកា” ដែល​ទាក់​ទង​នឹង​ការ​ប្រើ​ប្រាស់ ChatGPT៖

  • “Your Content. You may provide input to the Services (‘Input’), and receive output generated and returned by the Services based on the Input (‘Output’). Input and Output are collectively “Content.” As between the parties and to the extent permitted by applicable law, you own all Input, and subject to your compliance with these Terms, OpenAI hereby assigns to you all its right, title and interest in and to Output. OpenAI may use Content as necessary to provide and maintain the Services, comply with applicable law, and enforce our policies. You are responsible for Content, including for ensuring that it does not violate any applicable law or these Terms.”

ប្រសិនបើអ្នកពិនិត្យមើលនិយមន័យនោះដោយប្រុងប្រយ័ត្ន អ្នកនឹងសម្គាល់ឃើញថា OpenAI ប្រកាសថាវាអាចប្រើប្រាស់ខ្លឹមសារ ដូចដែលពួកគេយល់ថាចាំបាច់ដើម្បីរក្សាសេវាកម្មរបស់ខ្លួន រួមទាំងការអនុលោមតាមច្បាប់ជាធរមាន និងការអនុវត្តគោលការណ៍របស់វា។ នេះ​គឺ​ជា​ការ​ចាប់​យក​ងាយ​ស្រួល​សម្រាប់​ពួក​គេ។ នៅក្នុងជួរឈរមួយរបស់ខ្ញុំនាពេលខាងមុខ ខ្ញុំនឹងពិភាក្សាអំពីប្រធានបទផ្សេង ប៉ុន្តែពាក់ព័ន្ធ ជាពិសេសអំពីសិទ្ធិកម្មសិទ្ធិបញ្ញា (IP) ដែលអ្នកមានទាក់ទងនឹងការបញ្ចូលអត្ថបទ និងអត្ថបទដែលបានបញ្ចូល (ខ្ញុំចង្អុលបង្ហាញវានៅទីនេះចាប់តាំងពីនិយមន័យនៃ ខ្លឹមសារនៃប្រធានបទនេះ) ។

នៅក្នុងផ្នែកបន្ថែមនៃពាក្យដែលដាក់ស្លាកថាជាផ្នែក គ ពួកគេបានលើកឡើងពីផ្នែកនេះថា “អត្ថប្រយោជន៍ចម្បងមួយនៃគំរូនៃការរៀនម៉ាស៊ីនគឺថាពួកគេអាចធ្វើឱ្យប្រសើរឡើងតាមពេលវេលា។ ដើម្បីជួយ OpenAI ផ្តល់ និងថែរក្សាសេវាកម្ម អ្នកយល់ព្រម និងណែនាំថាយើងអាចប្រើខ្លឹមសារដើម្បីអភិវឌ្ឍ និងកែលម្អសេវាកម្ម។ នេះគឺស្រដៀងទៅនឹងការប្រុងប្រយ័ត្នមួយជួរដែលបានពិភាក្សាពីមុនដែលលេចឡើងនៅពេលអ្នកចូលទៅក្នុង ChatGPT ។

ឯកសារដាច់ដោយឡែកដែលត្រូវបានភ្ជាប់ទៅនេះផ្តល់នូវទិដ្ឋភាពបន្ថែមមួយចំនួនលើបញ្ហាទម្ងន់ទាំងនេះ៖

  • "ជាផ្នែកមួយនៃការកែលម្អជាបន្តបន្ទាប់នេះ នៅពេលដែលអ្នកប្រើម៉ូដែល OpenAI តាមរយៈ API របស់យើង យើងអាចប្រើទិន្នន័យដែលអ្នកផ្តល់ឱ្យយើងដើម្បីកែលម្អម៉ូដែលរបស់យើង។ វាមិនត្រឹមតែជួយឱ្យម៉ូដែលរបស់យើងកាន់តែមានភាពសុក្រឹត និងប្រសើរជាងមុនក្នុងការដោះស្រាយបញ្ហាជាក់លាក់របស់អ្នកប៉ុណ្ណោះទេ វាក៏ជួយកែលម្អសមត្ថភាព និងសុវត្ថិភាពទូទៅរបស់ពួកគេផងដែរ។ យើងដឹងថាភាពឯកជន និងសុវត្ថិភាពទិន្នន័យមានសារៈសំខាន់សម្រាប់អតិថិជនរបស់យើង។ យើងយកចិត្តទុកដាក់ខ្ពស់ក្នុងការប្រើប្រាស់ការគ្រប់គ្រងបច្ចេកទេស និងដំណើរការសមស្រប ដើម្បីការពារទិន្នន័យរបស់អ្នក។ យើងដកព័ត៌មានដែលអាចកំណត់អត្តសញ្ញាណផ្ទាល់ខ្លួនចេញពីទិន្នន័យដែលយើងមានបំណងប្រើដើម្បីកែលម្អដំណើរការគំរូ។ យើងក៏ប្រើតែទិន្នន័យគំរូតូចមួយសម្រាប់អតិថិជនម្នាក់សម្រាប់ការខិតខំប្រឹងប្រែងរបស់យើងក្នុងការកែលម្អការអនុវត្តគំរូ។ ជាឧទាហរណ៍ សម្រាប់កិច្ចការមួយ ចំនួនអតិបរមានៃសំណើ API ដែលយើងយកគំរូតាមអតិថិជនគឺមានចំនួន 200 រៀងរាល់ 6 ខែម្តង» (ដកស្រង់ចេញពីឯកសារដែលមានចំណងជើងថា "របៀបដែលទិន្នន័យរបស់អ្នកត្រូវបានប្រើប្រាស់ដើម្បីកែលម្អការអនុវត្តគំរូ")។

ចំណាំថាបទប្បញ្ញត្តិបង្ហាញថាការផ្តល់នេះអនុវត្តចំពោះ ការប្រើប្រាស់ API ជាមធ្យោបាយនៃការតភ្ជាប់ និងប្រើប្រាស់ម៉ូដែល OpenAI ទាំងអស់បានប្រាប់។ វាមានភាពស្រពិចស្រពិលចំពោះថាតើវាអនុវត្តដូចគ្នាចំពោះអ្នកប្រើប្រាស់ចុងក្រោយដែលកំពុងប្រើប្រាស់ ChatGPT ដោយផ្ទាល់ដែរឬទេ។

នៅក្នុងឯកសារផ្សេងគ្នា មួយដែលផ្ទុកនូវបញ្ជីសំណួរដែលសួរញឹកញាប់ផ្សេងៗរបស់ពួកគេ ពួកគេផ្តល់នូវសំណួរ និងចម្លើយជាបន្តបន្ទាប់ ដែលពីរដែលមើលទៅជាពិសេសទាក់ទងនឹងការពិភាក្សានេះ៖

  • (5) តើអ្នកណាអាចមើលការសន្ទនារបស់ខ្ញុំ? ជាផ្នែកមួយនៃការប្តេជ្ញាចិត្តរបស់យើងចំពោះ AI ប្រកបដោយសុវត្ថិភាព និងទំនួលខុសត្រូវ យើងពិនិត្យមើលការសន្ទនាដើម្បីកែលម្អប្រព័ន្ធរបស់យើង និងដើម្បីធានាថាខ្លឹមសារនេះអនុលោមតាមគោលការណ៍ និងតម្រូវការសុវត្ថិភាពរបស់យើង។
  • “(8) តើអ្នកអាចលុបការជម្រុញជាក់លាក់បានទេ? ទេ យើងមិនអាចលុបការជម្រុញជាក់លាក់ពីប្រវត្តិរបស់អ្នកបានទេ។ សូមកុំចែករំលែកព័ត៌មានរសើបណាមួយនៅក្នុងការសន្ទនារបស់អ្នក។”

មានឯកសារបន្ថែមដែលគ្របដណ្តប់គោលការណ៍ឯកជនភាពរបស់ពួកគេ។ វានិយាយថា៖ "យើងប្រមូលព័ត៌មានដែលតែម្នាក់ឯង ឬរួមបញ្ចូលគ្នាជាមួយព័ត៌មានផ្សេងទៀតនៅក្នុងកម្មសិទ្ធិរបស់យើង អាចត្រូវបានប្រើដើម្បីកំណត់អត្តសញ្ញាណអ្នក ("ព័ត៌មានផ្ទាល់ខ្លួន")" ហើយបន្ទាប់មកបន្តពន្យល់ថាពួកគេអាចប្រើប្រាស់ទិន្នន័យកំណត់ហេតុ ទិន្នន័យការប្រើប្រាស់ ព័ត៌មានទំនាក់ទំនង។ ព័ត៌មានឧបករណ៍ ខូគី ការវិភាគ និងព័ត៌មានដែលអាចប្រមូលបានផ្សេងទៀតអំពីអ្នក។ ត្រូវប្រាកដថាអានការបោះពុម្ពដ៏ល្អ។

I think that pretty much provides a tour of some considerations underlying how your data might be used. As I mentioned at the outset, I am not going to laboriously step through all of the licensing stipulations.

សង្ឃឹម​ថា វា​នឹង​ធ្វើ​ឱ្យ​អ្នក​មាន​គំនិត​លើ​បញ្ហា​ទាំង​នេះ ហើយ​នឹង​នៅ​តែ​ស្ថិត​នៅ​លើ​គំនិត​របស់​អ្នក។

សន្និដ្ឋាន

I’ve said it before and I’ll say it again, do not enter confidential or private data into these generative AI apps.

Consider a few handy tips or options on this sage piece of advice:

  • គិតមុនពេលប្រើ AI ជំនាន់
  • យកវត្ថុចេញជាមុន
  • របាំងឬក្លែងបន្លំការបញ្ចូលរបស់អ្នក។
  • ដំឡើងឧទាហរណ៍ផ្ទាល់ខ្លួនរបស់អ្នក។
  • ផ្សេងទៀត

ខ្ញុំ​នឹង​បង្ហាញ​បន្ទាប់​ពី​អ្វី​ដែល​មួយ​ៗ​ក្នុង​ចំណោម​នោះ​មាន។ ការបង្កើតឧទាហរណ៍ផ្ទាល់ខ្លួនរបស់អ្នកត្រូវបានគ្របដណ្តប់ពីមុននៅទីនេះ។ ការប្រើប្រាស់ "ផ្សេងទៀត" នៅក្នុងបញ្ជីរបស់ខ្ញុំគឺដោយសារតែលទ្ធភាពនៃមធ្យោបាយផ្សេងទៀតដើម្បីទប់ទល់នឹងការទប់ស្កាត់ទិន្នន័យសម្ងាត់ពីការបញ្ចូល ដែលខ្ញុំនឹងរៀបរាប់បន្ថែមទៀតនៅក្នុងការបង្ហោះជួរឈរនាពេលអនាគត។

ចូរយើងពិនិត្យមើលទាំងនេះ៖

  • គិតមុនពេលប្រើ AI ជំនាន់. វិធីសាស្រ្តមួយពាក់ព័ន្ធនឹងការជៀសវាងការប្រើ AI ទូទៅទាំងអស់គ្នា។ ឬយ៉ាងហោចណាស់គិតពីរដងមុនពេលអ្នកធ្វើដូច្នេះ។ ខ្ញុំគិតថាផ្លូវដែលមានសុវត្ថិភាពបំផុតទាក់ទងនឹងការមិនប្រើកម្មវិធី AI ទាំងនេះ។ ប៉ុន្តែ​នេះ​ហាក់​ដូច​ជា​ធ្ងន់ធ្ងរ​ពេក ហើយ​ជិត​ហួស​កំណត់។
  • យកវត្ថុចេញជាមុន. វិធីសាស្រ្តមួយផ្សេងទៀតរួមមានការដកព័ត៌មានសម្ងាត់ ឬព័ត៌មានឯកជនចេញពីអ្វីដែលអ្នកបញ្ចូលជាការជូនដំណឹង។ ក្នុងន័យនេះ ប្រសិនបើអ្នកមិនបញ្ចូលវាទេ វាមិនមានឱកាសដែលវាចូលទៅក្នុង Borg នោះទេ។ គុណវិបត្តិគឺថា ប្រហែលជាការដកផ្នែកសម្ងាត់ចេញ កាត់បន្ថយ ឬកាត់បន្ថយអ្វីដែលអ្នកកំពុងព្យាយាមយក AI ជំនាន់មុនដើម្បីធ្វើសម្រាប់អ្នក។
  • របាំង ឬក្លែងបន្លំការបញ្ចូលរបស់អ្នក។. You could modify your proposed text by changing up the info so that whatever seemed confidential or private is now differently portrayed. For example, instead of a contract mentioning the Widget Company and John Smith, you change the text to refer to the Specious Company and Jane Capone. An issue here is whether you’ll do a sufficiently exhaustive job such that all of the confidentially and private aspects are fully altered or faked. It would be easy to miss some of the cloudings and leave in stuff that ought to not be there.

Here’s an interesting added twist that might get your noggin further percolating on this topic. If you can completely ensure that none of your input prompts contain any confidential information, does this imply that you don’t need to have an iota of worry about the outputted essays also containing any of your confidential information?

This would seem axiomatically true. No confidential input, no confidential output.

Here’s your mind-bending twist.

Generative AI is often set up to computationally retrain itself from the text prompts that are being provided. Likewise, generative AI is frequently devised to computationally retrain from the outputted essays. All of this retraining is intended to improve the capabilities of generative AI.

I described in one of my other columns the following experiment that I undertook. An attorney was trying to discover a novel means of tackling a legal issue. After an exhaustive look at the legal literature, it seemed that all angles already surfaced were found. Using generative AI, we got the AI app to produce a novelty of a legal approach that had seemingly not before been previously identified. It was believed that nobody else had yet landed on this legal posture. A legal gold nugget, as it were. This could be a strategically valuable competitive legal bonanza that at the right time be leveraged and exploited.

Does that outputted essay constitute a form of confidential information, such that it was generated by the AI for this particular person and contains something special and seemingly unique?

Aha, this leads us to the other allied and intertwined topic about the ownership and IP rights associated with generative AI. Stay tuned to see how this turns out.

សុន្ទរកថាចុងក្រោយសម្រាប់ពេលនេះ។

Sophocles provided this wisdom: “Do nothing secretly; for Time sees and hears all things, and discloses all.” I suppose you could modernize the wording and contend that generative AI and those that devise and maintain the AI are apt to see all too.

It is a modestly token piece of advice worthy of being remembered.

Source: https://www.forbes.com/sites/lanceeliot/2023/01/27/generative-ai-chatgpt-can-disturbingly-gobble-up-your-private-and-confidential-data-forewarns-ai-ethics-and-ai-law/