Sızdırılan taslak başına küresel cironun% 4'ü kadar yüksek para cezaları belirlemeye yönelik risk tabanlı AI kuralları için AB planı

<pre>Sızdırılan taslak başına küresel cironun% 4'ü kadar yüksek para cezaları belirlemeye yönelik risk tabanlı AI kuralları için AB planı


Yapay zeka uygulama kurallarını belirleyen Avrupa Birliği milletvekilleri, bir dizi yasaklanmış kullanım davası için küresel yıllık cironun% 4'üne kadar (veya daha büyükse 20 milyon €) para cezası almayı düşünüyor. sızdırılmış taslak AI yönetmeliğinin – daha önce bildirdiği Politico – bunun resmi olarak önümüzdeki hafta açıklanması bekleniyor.

Yapay zekayı düzenleme planı bir süredir kartların üzerindeydi. Geri Şubat 2020 Avrupa Komisyonu, yapay zekanın sözde "yüksek riskli" uygulamalarını düzenlemeye yönelik planların taslağını oluşturan bir beyaz kitap yayınladı.

O zamanlar AB milletvekilleri, enerji ve işe alım gibi belirli sektörleri risk vektörleri olarak öngören sektörel bir odaklanma ile oynuyorlardı. Ancak, sızan taslağa göre bu yaklaşım yeniden düşünülmüş gibi görünüyor – bu, AI riskinin belirli endüstriler veya sektörlerle tartışılmasını sınırlamıyor.

Bunun yerine, nerede olurlarsa olsunlar, yüksek riskli AI uygulamaları için uyumluluk gereksinimlerine odaklanılır (ancak, bu tür kullanım durumları AB anlaşmalarının dışında kaldığından, silahlar / askeri kullanımlar özellikle hariç tutulmuştur). Bu taslakta "yüksek riskin" tam olarak nasıl tanımlanacağı pek açık olmasa da.

Komisyonun buradaki kapsayıcı hedefi, sözde "güvenilir" ve "insan merkezli" yapay zekanın benimsenmesini teşvik etmek için "AB değerleri" ile demlenmiş bir uyum kontrolleri ve dengeleri sistemi aracılığıyla yapay zekaya halkın güvenini artırmaktır. Dolayısıyla, "yüksek riskli" olarak kabul edilmeyen yapay zeka uygulamalarının yapımcıları bile, Komisyon'un belirttiği gibi, "yüksek riskli yapay zeka sistemlerine uygulanabilir zorunlu gereksinimlerin gönüllü olarak uygulanmasını teşvik etmek için" davranış kurallarını benimsemeye teşvik edilecek.

Yönetmeliğin diğer bir bölümü, blokta AI gelişimini desteklemeye yönelik önlemlerle ilgileniyor – Üye Devletleri, yeni başlayanların ve KOBİ'lerin AI sistemlerini pazara sunmadan önce geliştirme ve test etme desteği için önceden değerlendirilebilecekleri düzenleyici sanal alan programları oluşturmaya itiyor.

Taslakta, yetkili makamların "sandbox'a katılan kuruluşların yapay zeka projeleriyle ilgili olarak kendi takdir yetkilerini ve orantılılık kaldıraçlarını kullanma yetkisi verilirken, diğer yandan da yetkililerin denetim ve düzeltici yetkileri tam olarak korunacaktır" notu taslak.

Yüksek riskli yapay zeka nedir?

Planlanan kurallar kapsamında, yapay zeka uygulamayı amaçlayanların, belirli bir kullanım durumunun 'yüksek riskli' olup olmadığını ve dolayısıyla zorunlu, pazar öncesi bir uyum değerlendirmesi yapmaları gerekip gerekmediğini belirlemeleri gerekecektir.

"Bir AI sisteminin yüksek riskli olarak sınıflandırılması, amaçlanan amacına dayanmalıdır – bu, belirli bağlam ve kullanım koşulları dahil olmak üzere bir AI sisteminin amaçlandığı kullanıma atıfta bulunmalı ve iki adımda belirlenmelidir. belirli zararlara yol açıp açmayacağı ve eğer öyleyse, olası zararın ciddiyeti ve meydana gelme olasılığı göz önüne alındığında, ”taslakta bir açıklama var.

"Bir AI sisteminin bu Tüzüğün amaçları açısından yüksek riskli olarak sınıflandırılması, mutlaka sistemin olduğu gibi veya bir bütün olarak ürünün sektörel mevzuat kriterleri uyarınca mutlaka 'yüksek riskli' olarak kabul edileceği anlamına gelmeyebilir, "Metin ayrıca belirtir.

Taslakta yüksek riskli AI sistemleriyle ilişkili "zararlar" örnekleri şu şekilde listelenmiştir: "bir kişinin yaralanması veya ölümü, mülkün zarar görmesi, genel olarak toplum için sistemik olumsuz etkiler, Kritik ekonomik ve toplumsal faaliyetlerin olağan şekilde yürütülmesi, kişilerin finansal, eğitimsel veya mesleki fırsatları üzerindeki olumsuz etkisi, kamu hizmetlerine ve her türlü kamu yardımına erişim üzerindeki olumsuz etki ve [European] temel haklar."

İşe alma sistemleri dahil olmak üzere yüksek riskli uygulamaların birkaç örneği de tartışılmaktadır; eğitim veya mesleki eğitim kurumlarına erişim sağlayan sistemler; acil servis gönderme sistemleri; kredibilite değerlendirmesi; vergi mükellefi tarafından finanse edilen faydaların tahsisinin belirlenmesine dahil olan sistemler; suçun önlenmesi, tespiti ve kovuşturulması etrafında uygulanan karar alma sistemleri; ve yargıçlara yardımcı olmak için kullanılan karar verme sistemleri.

Bir risk yönetim sistemi kurmak ve bir kalite yönetim sistemi de dahil olmak üzere piyasa sonrası gözetim gerçekleştirmek gibi uyumluluk gereklilikleri karşılandığı sürece, bu tür sistemler yasal plan kapsamında AB pazarından men edilmeyecektir.

Diğer gereklilikler arasında güvenlik alanı ve AI'nın performansta tutarlılık tutarlılığı sağlaması – en geç bir gözetim otoritesine "yükümlülüklerin ihlali teşkil eden AI sisteminin herhangi bir ciddi olayını veya herhangi bir arızasını" bildirme şartıyla – Farkına vardıktan 15 gün sonra.

Metin, "Yüksek riskli AI sistemleri, Birlik pazarına yerleştirilebilir veya zorunlu gereksinimlere uygunluğa tabi olarak başka şekilde hizmete sokulabilir".

“Birlik pazarına yerleştirilen veya başka bir şekilde hizmete sunulan yüksek riskli AI sistemlerine ilişkin zorunlu gereklilikler, AI sisteminin amaçlanan amacı dikkate alınarak ve sağlayıcı tarafından kurulacak risk yönetim sistemine göre yerine getirilmelidir.

"Diğer şeylerin yanı sıra, sağlayıcı tarafından belirlenen risk kontrol yönetimi önlemleri, zorunlu gereksinimlerin bir arada uygulanmasından kaynaklanan etkilerin ve olası etkileşimlerin gereken şekilde dikkate alınmasına dayanmalı ve yansıtılanlar da dahil olmak üzere genel olarak kabul edilen en son teknolojiyi dikkate almalıdır. ilgili uyumlaştırılmış standartlarda veya ortak şartnamelerde. "

Yasaklanmış uygulamalar ve biyometri

Bazı AI "uygulamaları", bu sızdırılan taslak uyarınca, planlanan yasanın 4. Maddesi uyarınca yasaklanmış olarak listelenmiştir – kitlesel gözetim sistemlerinin (ticari) uygulamaları ve ayrımcılığa yol açabilecek genel amaçlı sosyal puanlama sistemleri dahil.

İnsan davranışını, kararlarını veya görüşlerini zararlı bir sonuca (karanlık desen tasarım arayüzleri gibi) yönlendirmek için tasarlanmış AI sistemleri de 4. Madde kapsamında yasaklanmış olarak listelenmiştir; kişilerin veya insan gruplarının savunmasızlığını (zararlı bir şekilde) hedeflemek amacıyla tahminler oluşturmak için kişisel verileri kullanan sistemler de olduğu gibi.

Sıradan bir okuyucu, düzenlemenin, Facebook ve Google gibi şirketlerin iş modellerini, yani insanları izlemeye dayalı davranışsal reklamcılık gibi uygulamaları bir vuruşta yasaklamayı önerdiğini varsayabilir. Ancak bu, adtech devlerinin araçlarının kullanıcılar üzerinde zararlı bir etkisi olduğunu kabul edeceklerini varsayar.

Aksine, düzenleyici hileli atlatma stratejileri, zıt kutup iddialarına dayanmaktadır; dolayısıyla Facebook "alakalı" reklamlardan söz ediyor. Dolayısıyla, metin (yazıldığı şekliyle), teknoloji devlerinin kendi çıkarlarını gözeten yorumlarına karşı AB hukukunu sadık kılmak için (henüz) daha uzun süren yasal savaşlar için bir reçete olacak gibi görünüyor.

Yasaklanan uygulamaların mantığı, taslağın daha önceki bir resitalinde özetleniyor – şöyle diyor: “Yapay zekanın, özellikle zararlı olan ve şu şekilde yasaklanması gereken yeni manipülatif, bağımlılık yaratan, sosyal kontrol ve ayrım gözetmeyen gözetleme uygulamalarını mümkün kıldığı kabul edilmelidir. Birliğin insan onuru, özgürlük, demokrasi, hukukun üstünlüğü ve insan haklarına saygı değerlerine aykırıdır. "

Sızdırılan bir taslak uyarınca Komisyon'un halka açık yerlerde yüz tanıma kullanımına yasak getirmekten kaçındığı dikkate değerdir. geçen yılın başlarında, geçen yılki Beyaz Kitap bir yasaktan vazgeçmeden önce.

Sızdırılan taslakta, halka açık yerlerde "uzaktan biyometrik tanımlama", "onaylanmış bir kuruluşun katılımıyla daha sıkı uygunluk değerlendirme prosedürleri" için seçilmiştir – diğer bir deyişle, "teknolojinin kullanımının ima ettiği belirli riskleri ele alan bir yetkilendirme prosedürü" ve aşağıdakileri içerir: zorunlu bir veri koruma etki değerlendirmesi – diğer birçok yüksek riskli AI uygulamasına kıyasla (öz değerlendirme yoluyla gereksinimleri karşılamasına izin verilir).

Taslağı, "Ayrıca, yetkilendirme makamı, belirli bir amaç için kullanılan bir sistemin, özellikle yaş, etnik köken, cinsiyet veya engellilik bakımından yanlışlıkların neden olduğu zararın olasılığını ve ciddiyetini değerlendirmesinde dikkate almalıdır" taslağı hazırlar. "Özellikle demokratik ve sivil katılımı göz önünde bulundurarak toplumsal etkiyi ve ayrıca kişilerin referans veritabanına dahil edilmesine yönelik metodolojiyi, gerekliliği ve orantılılığı daha da dikkate almalıdır."

“Kişisel güvenlik için olumsuz sonuçlara yol açabilecek” AI sistemlerinin de uyum sürecinin bir parçası olarak bu daha yüksek düzenleyici katılım sınırından geçmesi gerekmektedir.

Tüm yüksek riskli AI'lar için öngörülen uygunluk değerlendirme sistemi devam etmektedir ve taslak şu şekilde devam etmektedir: “Bir AI sisteminin, sistemin bu Tüzük ile uyumluluğunu etkileyebilecek bir değişiklik meydana geldiğinde yeni bir uygunluk değerlendirmesinden geçmesi uygundur. sistemin amaçlanan amacı değişir. "

"Piyasaya sürüldükten veya hizmete sokulduktan sonra 'öğrenmeye' devam eden (yani işlevlerin nasıl yürütüldüğünü otomatik olarak uyarlayan) AI sistemleri için, şu anda önceden belirlenmemiş ve değerlendirilmemiş olan algoritma ve performans değişiklikleri uygunluk değerlendirmesi yeni bir uygunluk ile sonuçlanacaktır
AI sisteminin değerlendirilmesi ”diye ekliyor.

Uyumlu işletmeler için havuç, kullanıcıların güvenini kazanmalarına ve bloğun tek pazarında sorunsuz erişim sağlamalarına yardımcı olmak için bir "CE" işareti göstermektir.

"Yüksek riskli AI sistemleri, Birlik içinde serbestçe hareket edebilmeleri için bu Yönetmeliğe uygunluklarını belirtmek için CE işaretini taşımalıdır," diye ekleyerek şunları ekliyor: "Üye Devletler piyasaya sürülmesine engel oluşturmamalıdır veya Bu Yönetmelikte belirtilen gereksinimlere uyan AI sistemlerinin hizmete sunulması. "

Botlar ve deepfake'ler için şeffaflık

Bazı uygulamaları yasaklamaya ve 'yüksek riskli' AI sistemlerini güvenli bir şekilde pazara getirmek için bir pan-AB kuralları sistemi kurmaya çalışmanın yanı sıra (çoğunlukla kendi kendine) değerlendirmeler yapması ve uyumluluk yükümlülüklerini yerine getirmesi beklenen sağlayıcılarla (örneğin, modeli eğitmek için kullanılan veri setleri; kayıt tutma / dokümantasyon; insan gözetimi; şeffaflık; doğruluk) böyle bir ürünü piyasaya sürmeden önce ve devam eden pazar sonrası gözetim gerçekleştirmeden önce – önerilen düzenleme, yapay zekanın olma riskini azaltmayı amaçlamaktadır. insanları kandırmak için kullanılır.

Bunu, gerçek kişilerle etkileşime girmesi amaçlanan AI sistemleri için "uyumlu şeffaflık kuralları" önererek yapar (aka sesli AI'lar / sohbet botları vb.); ve görüntü, ses veya video içeriği (diğer adıyla deepfake) oluşturmak veya işlemek için kullanılan AI sistemleri için.

"Gerçek kişilerle etkileşime girmeyi veya içerik oluşturmayı amaçlayan belirli AI sistemleri, yüksek riskli olup olmadıklarına bakılmaksızın belirli kimliğe bürünme veya aldatma riskleri oluşturabilir. Bu nedenle, belirli durumlarda, bu sistemlerin kullanımı, yüksek riskli AI sistemleri için gereklilikler ve yükümlülüklere halel getirmeksizin belirli şeffaflık yükümlülüklerine tabi olmalıdır ”, metni çalıştırır.

"Özellikle, koşullar ve kullanım bağlamından açıkça anlaşılmadığı sürece, gerçek kişilere bir AI sistemi ile etkileşimde bulundukları bildirilmelidir. Ayrıca, mevcut kişilere, yerlere veya olaylara önemli ölçüde benzeyen ve makul bir kişiye yanlışlıkla gerçekmiş gibi görünen görüntü, ses veya video içeriğini oluşturmak veya işlemek için bir AI sistemi kullanan kullanıcılar, içeriğin yapay olarak oluşturulduğunu açıklamalı veya yapay zeka çıktısını buna göre etiketleyerek ve yapay kökenini açıklayarak manipüle edilir.

"Bu etiketleme yükümlülüğü, bu tür içeriğin kullanımının kamu güvenliğini korumak veya hiciv, parodi veya sanat ve bilim özgürlüğü gibi bir kişinin meşru bir hakkını veya özgürlüğünü kullanmak için gerekli olduğu ve tabi olduğu durumlarda geçerli olmamalıdır. üçüncü şahısların hakları ve özgürlükleri için uygun güvenceler. "

Uygulama ne olacak?

Önerilen yapay zeka rejimi henüz Komisyon tarafından resmi olarak açıklanmamış olsa da – bu nedenle ayrıntılar önümüzdeki haftadan önce hala değişebilir – yapay zekanın (genellikle karmaşık) belirli uygulamaları etrafında yepyeni bir uyum katmanının nasıl olabileceği konusunda önemli bir soru işareti beliriyor. Özellikle AB'nin veri koruma rejiminin (2018'de uygulanmaya başlanan) uygulanmasında devam eden zayıflıklar göz önünde bulundurulduğunda, etkili bir şekilde denetlenir ve uygulanan ihlaller.

Bu nedenle, yüksek riskli AI sağlayıcılarının, sistemlerini piyasaya sürmek için sorumluluk almaları gerekirken (ve bu nedenle, Komisyonun sürdürmeyi planladığı bir AB veritabanına yüksek riskli AI sistemlerini kaydetmeyi de içeren tüm çeşitli şartlara uygunluk için) teklif, denetim rejiminin uygulanmasını denetlemek için bir veya daha fazla ulusal yetkili makamı tayin etmekten sorumlu olacak Üye Devletlerin eline bırakıyor.

Bu hikayenin Genel Veri Koruma Yönetmeliği ile nasıl işlediğini gördük. Komisyonun kendisi kabul etti GDPR yaptırımı tutarlı veya güçlü bir şekilde uygulanmıyor blok genelinde – bu nedenle önemli bir soru, bu yeni yapay zeka kurallarının aynı şeyi nasıl önleyeceğidir. forum alışverişi kaderi?

“Üye Devletler, ihlalleri için etkili, orantılı ve caydırıcı cezalar koymak da dahil olmak üzere, bu Tüzük hükümlerinin uygulanmasını sağlamak için gerekli tüm önlemleri almalıdır. Taslağı, belirli belirli ihlaller için Üye Devletler bu Tüzükte belirtilen marjları ve kriterleri dikkate almalıdır ”.

Komisyon, Üye Devletin yaptırımının yerine getirmemesi durumunda devreye girme potansiyeli hakkında bir uyarı eklemektedir. Ancak, aynı eski tuzakların büyük olasılıkla ortaya çıkacağını düşündüren, yaptırıma farklı bir yaklaşım için yakın vadede bir olasılık yoktur.

"Bu Yönetmeliğin amacı, yani Birlik içinde yapay zekanın piyasaya sürülmesine, hizmete sunulmasına ve kullanılmasına ilişkin bir güven ekosistemi için koşullar yaratmak Üye Devletler tarafından yeterince gerçekleştirilemediğinden, daha çok Eylemin ölçeğinin veya etkilerinin Birlik düzeyinde daha iyi başarılabilmesi için, Birlik, Avrupa Birliği Antlaşması'nın 5. Maddesinde belirtilen yetki ikamesi ilkesine uygun olarak önlemler alabilir ”, Komisyon'un gelecekteki yaptırım hatası.

YZ için gözetim planı, GDPR'nin Avrupa Veri Koruma Kurulu'na benzer bir ayna varlık oluşturmayı içerir – Avrupa Yapay Zeka Kurulu olarak adlandırılır – benzer şekilde, AB milletvekilleri için ilgili öneriler ve görüşler yayınlayarak yönetmeliğin uygulanmasını destekler. Yasaklanmış AI uygulamalarının ve yüksek riskli sistemlerin listesi.