Copilot is ‘for entertainment purposes only,’ according to Microsoft’s terms of use

AI skeptics nuk janë të vetmit që paralajmërojnë përdoruesit të mos u besojnë verbërisht rezultateve të modeleve — këtë rekomandojnë edhe vetë kompanitë që zhvillojnë AI, të pasqyruara qartë në termat dhe kushtet e tyre.
Përdorimi i AI dhe përgjegjësia sipas kompanive të mëdha
Merrni për shembull Microsoft, e cila aktualisht është e fokusuar të bindë klientët korporativë të paguajnë për shërbimin Copilot. Megjithatë, termat e përdorimit të Copilot, të fundit të përditësuara më 24 tetor 2025, janë bërë objekt kritikash në rrjete sociale. Në këto terma theksohet qartë: “Copilot është vetëm për qëllime argëtuese. Mund të ketë gabime dhe mund të mos funksionojë siç pritet. Mos u mbështetni te Copilot për këshilla të rëndësishme. Përdoreni Copilot me përgjegjësinë tuaj.”
Një zëdhënës i Microsoft-it deklaroi për PCMag se gjuha aktuale në këto kushte është “gjuhë e trashëguar” dhe nuk përfaqëson më mënyrën se si përdoret Copilot sot. Prandaj, kjo do të ndryshohet në përditësimin e ardhshëm.
Paralajmërime dhe disklaimerë të kompanive të tjera të AI
Përveç Microsoft, edhe kompani të tjera të mëdha të inteligjencës artificiale përdorin paralajmërime të ngjashme. OpenAI dhe xAI, për shembull, u bëjnë thirrje përdoruesve të mos i shohin rezultatet si “të vërtetën” ose si “shërbim të vetëm të së vërtetës apo informacionit faktik”. Ky mesazh është thelbësor për të sensibilizuar publikun që përdorja e AI duhet të jetë me kujdes, pavarësisht se teknologjia po avancon me shpejtësi. Në këtë mënyrë kompanitë mbrojnë përdoruesit nga informacioni i gabuar dhe vetveten nga përgjegjësitë ligjore.
Tags: Microsoft Copilot, inteligjenca artificiale, kushtet e përdorimit, paralajmërime AI, përdorimi për argëtim, përgjegjësia e përdoruesit
