Не лише скептики ШІ застерігають користувачів бездумно довіряти результатам роботи моделей — самі компанії, що розробляють штучний інтелект, пишуть про це у своїх умовах обслуговування.
Візьмімо Microsoft, яка зараз зосереджена на тому, щоб залучити корпоративних клієнтів до оплати Copilot. Однак компанія також отримує критику в соціальних мережах через умови використання Copilot, які, схоже, востаннє оновлювалися 24 жовтня 2025 року.
„Copilot призначено лише для розважальних цілей“, — попередила компанія. „Він може припускатися помилок і не працювати так, як очікується. Не покладайтеся на Copilot для отримання важливих порад. Використовуйте Copilot на власний ризик“.
Представник Microsoft повідомив PCMag, що компанія оновить те, що вони назвали „застарілим формулюванням“.
„Оскільки продукт еволюціонував, це формулювання більше не відображає того, як Copilot використовується сьогодні, і буде змінене з нашим наступним оновленням“, — зазначив представник.
Tom’s Hardware зауважив, що Microsoft не єдина компанія, яка використовує подібне застереження для ШІ. Наприклад, OpenAI та xAI застерігають користувачів, що їм не слід покладатися на результати роботи моделей як на „істину“ (цитуючи xAI) або як на „єдине джерело правдивої чи фактичної інформації“ (OpenAI).

Залишити відповідь