Зробити резюме статті:
Чатгпт

Логотип Claude (фото: Rafapress/depositphotos)
Як пише TechCrunch, Anthropic внесла оновлення у свої умови для споживачів та політику конфіденційності. Користувачі Claude за планами Free, Pro, Max і Claude Code повинні до 28 вересня вирішити, чи дозволяти використання своїх даних та зберігання їх протягом п’яти років. Після закінчення терміну доступ до Claude буде призупинено, якщо користувачі не зроблять чіткий вибір.
Цей крок є різким відступом від попереднього підходу Anthropic, згідно з яким чати користувачів видалялися через 30 днів, якщо вони не були позначені як зловмисні або цього не вимагало законодавство. За новою системою, дані, на які було надано згоду, можуть зберігатися до п’яти років і будуть безпосередньо використовуватися для навчання майбутніх версій Claude.
Anthropic стверджує, що нові зміни покращать штучний інтелект її розробок. Також компанія наголосила, що дані не будуть продаватися третім сторонам і будуть фільтруватися автоматизованими системами, щоб зменшити ризик витоку конфіденційної інформації, зазначає The Verge.
Утім, оновлені умови компанії можуть бути зумовлені галузевими змінами в політиці даних, оскільки такі компанії, як Anthropic та OpenAI, стикаються з дедалі більшою перевіркою щодо своєї практики зберігання даних. Як пише TechCrunch, OpenAI наразі бореться із судовим наказом, який зобов’язує компанію зберігати всі розмови користувачів ChatGPT на невизначений термін, включаючи видалені чати, через позов, поданий The New York Times.
Корпоративні клієнти, які використовують Claude в межах робочих, урядових або освітніх контрактів, а також через Amazon Bedrock і Vertex AI від Google Cloud, не зазнають впливу змін у політиці. Їхні дані залишаються захищеними відповідно до окремих угод.
Нова позиція Anthropic підкреслює зростаючу напругу в розвитку ШІ: чи повинен прогрес залежати від тихого збору даних про взаємодію користувачів, чи радше від систем, розроблених для навчання без таких компромісів.