Claude AI modelinizi verileriniz üzerinde eğitmeye yakında başlayın: İşte son tarihten önce nasıl vazgeçeceğiniz

"Hayır" demek için yapmanız gerekenler

Yapay zeka geliştiricisi Anthropic şunları yürütüyor... Claude... kullanıcı verilerini işleme biçiminde köklü bir değişiklik yapıyor. Bugünden itibaren Claude kullanıcılarından, Anthropic'in konuşmalarını gelecekteki yapay zeka modellerini eğitmek için kullanmasına izin vermek veya bu seçeneği devre dışı bırakıp verilerini gizli tutmak arasında seçim yapmaları istenecek. 28 Eylül 2025'e kadar karar vermezseniz, Claude'a erişiminizi tamamen kaybedeceksiniz.

Claude dizüstü bilgisayarda

Anthropic daha önce gizlilik odaklı bir yaklaşım benimsemişti; bu da sohbetlerinizin ve jetonlarınızın yasal sebepler gerektirmediği sürece 30 gün sonra otomatik olarak silinmesi anlamına geliyordu. Ancak bugünden itibaren, siz vazgeçmediğiniz sürece verileriniz beş yıla kadar saklanacak ve Claude'un daha akıllı olmasına yardımcı olmak için eğitim oturumlarına aktarılacak.

Yeni politika, Ücretsiz, Pro ve Max dahil tüm planlar ile bu katmanlardaki Bulut Kodu için geçerlidir. İşletmeler, kamu kurumları, eğitim kurumları ve API kullanıcıları etkilenmeyecektir.

Hareket mekanizması

Kayıt sırasında, yeni kullanıcılara Claude AI modelinin performansını iyileştirmek için verilerinin kullanımına onay verme seçeneği sunulacak. Mevcut kullanıcılar ise "Tüketici Şartları ve Politikalarında Güncellemeler" başlıklı bir açılır pencere görecek. Büyük mavi "Kabul Ediyorum" düğmesine dokunulduğunda otomatik olarak onay verilecek, daha küçük bir geçiş anahtarı ise kullanıcıların bu özelliği devre dışı bırakmasını sağlayacak.

Bu pencereyi görmezden gelirseniz, Claude 28 Eylül'den sonra çalışmayı durduracaktır. Bu değişikliğin yalnızca gelecekteki konuşmaları ve kodları etkilediğini unutmayın. Geçmişte yazdığınız her şey, yalnızca bu konuşmaları yeniden açarsanız kullanılacaktır. Bir konuşmayı silerseniz, eğitim için kullanılmayacaktır.

Kararınızı daha sonra gizlilik ayarlarınızdan değiştirebilirsiniz. Ancak, veriler eğitim için kullanıldıktan sonra geri alınamaz. Bulut kullanırken gizliliğinizi ve verilerinizi korumak için bu mekanizmayı anlamanız önemlidir.

Anthropic neden bu değişikliği yapıyor?

Dario Amodei, Anthropic CEO

Anthropic, kullanıcı verilerinin Claude dil modelinin performansını "vibe kodlama" ve geleneksel programlamadan çıkarım yeteneklerine ve güvenlik standartlarının korunmasına kadar birçok alanda iyileştirmek için hayati önem taşıdığını savunuyor. Anthropic, bu verileri üçüncü taraflara satmadığını ve bunun yerine, modellerini eğitmek için kullanmadan önce hassas bilgileri otomatik filtrelerle kaldırdığını vurguluyor.

Ancak bu değişiklik, gizlilik dengesinde bir değişimi temsil ediyor ve kullanıcı açıkça itiraz etmediği sürece varsayılan gizlilikten varsayılan veri paylaşımına geçiş anlamına geliyor. Başka bir deyişle, verileriniz Claude'u iyileştirmek için varsayılan olarak toplanacak ve kullanılacak ve verilerinizi paylaşmak istemiyorsanız, bunu durdurmak için harekete geçmelisiniz. Bu değişiklik, kullanıcı verilerinden yararlanarak Claude'un yapay zeka yeteneklerini geliştirmeyi hedeflerken, Anthropic'in hassas veri filtreleme mekanizmaları aracılığıyla kullanıcı gizliliğini koruma taahhüdünü de vurguluyor.

Seçiminiz nedir?

Anthropic'in Claude'u gerçek dünya verilerini geliştirmek için daha hızlı bir yola koyma kararı, modelin karmaşık soruları yanıtlama, kod yazma ve hatalardan kaçınma konusunda ne kadar iyi olursa yapay zekayı o kadar ilerleteceği anlamına geliyor.

Ancak bu ilerleme, artık verileri haftalarca değil yıllarca saklanan bir eğitim setinin parçası haline gelebilecek kullanıcılar pahasına gerçekleşiyor.

Ortalama kullanıcılar için bu büyük bir sorun gibi görünmeyebilir. Ancak gizliliğe önem veren kullanıcılar veya Bulut'ta iş projelerini, kişisel meseleleri veya hassas bilgileri tartışan herkes için bu güncelleme bir uyarı işareti olabilir.

Varsayılan ayar etkinleştirildiğinden, verilerinizi gizli tutmak istiyorsanız bu seçeneği devre dışı bırakmak artık sizin sorumluluğunuzdadır.

Yoruma kapalı.