Bosch, yapay zekanın kullanımına ilişkin etik “kırmızı çizgiler” belirledi. Şirket, akıllı ürünlerinde yapay zeka kullanımını yöneten kuralları yayınladı.

Bosch’un yapay zeka etik kuralları şu ilkeye dayanıyor: Tüm yapay zeka tabanlı kararlarda son söz insanlarda olmalıdır. Berlin’de düzenlenen şirketin yıllık IoT konferansı Bosch ConnectedWorld’ün (BCW) açılışında, Bosch CEO’su Volkmar Denner, “Yapay zeka, insanlara hizmet etmelidir. Yapay zeka etik kurallarımız, çalışanlarımıza akıllı ürünlerin geliştirilmesi konusunda rehberlik sağlıyor. Amacımız, insanların yapay zeka ürünlerimize güvenmesini sağlamaktır.” dedi.

Yapay zeka, Bosch açısından hayati öneme sahip bir teknoloji. 2025 itibarıyla tüm Bosch ürünlerinin ya yapay zeka içermesi ya da yapay zeka yardımıyla geliştirilmiş veya üretilmiş olması hedefleniyor. Şirket, yapay zeka ürünlerinin sağlam, güvenilir ve açıklanabilir olmasını istiyor. Bosch CDO ve CTO’su Michael Bolle, “Yapay zeka bir kara kutu olursa, insanlar ona güvenmeyecektir. Ancak ağa bağlı bir dünyada güven esas olacaktır.” dedi. Bosch, güvenilir yapay zeka tabanlı ürünler üretmeyi hedefliyor. Etik kurallar, Bosch’un bir yenilik arayışını sosyal sorumluluk hissi ile bir araya getiren “Yaşam için teknoloji” sloganına dayanıyor. Önümüzdeki iki yıl içerisinde Bosch, 20.000 çalışanına yapay zeka kullanımı konusunda eğitim vermeyi planlıyor. Bosch’un bu teknolojinin sorumlu kullanımını yöneten yapay zeka etik kuralları, bu eğitim programının bir parçası olacak.

 

Yapay zeka, çok büyük bir potansiyel sunuyor

Yapay zeka, ilerlemenin ve büyümenin global itici gücü. Örneğin, yönetim danışmanı PwC, bugün ve 2030 yılı arasında yapay zekanın Çin’de GSYİH’yi yüzde 26, Kuzey Amerika’da yüzde 14 ve Avrupa’da ise yaklaşık yüzde on civarında artıracağını öngörüyor. Bu teknoloji, ulaşım, iklim eylemi, tıp ve tarım gibi birçok alanda zorlukların üstesinden gelmeye ve sonuçları optimize etmeye yardımcı olabilir. Algoritmalar, çok yüksek miktarlarda veriyi değerlendirerek kararları gerekçelendirebiliyor ve otonom olarak alabiliyor. Böylece, bağlayıcı AB standartlarının yürürlüğe girmesinden çok önce Bosch, bu teknolojinin kullanımının ortaya çıkarttığı etik soruları aktif olarak ele alma kararını aldı. Bu sürecin ahlaki dayanağı, Birleşmiş Milletler İnsan Hakları Bildirgesi’nde yer alan değerler tarafından sağlanmaktadır.

 

Kontrol, insanlarda olmalıdır

Bosch’un yapay zeka etik kuralları, insan gözetimi olmadan yapay zekanın insanlar hakkında herhangi bir karar almamasını şart koşar. Yapay zeka, insanlara bir araç olarak hizmet vermelidir. Üç olası yaklaşım tanımlanmaktadır ve hepsinin bir ortak yanı var: Bosch tarafından geliştirilen yapay zeka ürünlerinde, teknolojinin verdiği kararlarda kontrol insanlarda olmalıdır. İlk yaklaşımda (kontrol insanda) yapay zeka, insanların nesneleri veya organizmaları sınıflandırmasına yardımcı bir karar destek uygulaması gibi sadece yardım amacı taşır. İkinci yaklaşımda (insan döngünün içerisinde) ise bir akıllı sistem, insanların istediği zaman geçersiz kılabileceği kararları bağımsız bir şekilde ele alır. Buna örnek olarak, insan sürücünün örneğin bir park destek sisteminin kararlarına doğrudan müdahale edebileceği kısmi otonom park etme gösterilebilir. Üçüncü yaklaşım (insan sürecin üzerinde), acil fren sistemleri gibi akıllı teknolojilerle ilgilidir. Bu noktada mühendisler, geliştirme süreci sırasında belirli parametreler tanımlar. Burada, karar verme sürecinde insan müdahalesi bulunmaz. Parametreler, yapay zekanın sistemi etkinleştirip etkinleştirmemeye karar vermesine ilişkin dayanak sağlar. Mühendisler, geçmişe dönük olarak sistemin tanımlanan parametrelerin içerisinde kalıp kalmadığını test eder. Gerek olması halinde, bu parametreler ayarlanabilir.

 

Birlikte güven oluşturma

Bosch, yapay zeka etik kurallarının yapay zeka konusundaki toplumsal tartışmanın azaltılmasına katkıda bulunmasını umuyor. Denner, “Yapay zeka hayatlarımızı her açıdan değiştirecek. Bu nedenle söz konusu tartışma son derece önemli.” dedi. Akıllı sistemlere yönelik güveni oluşturmak için teknik bilgiden daha fazlası gerekiyor. Politika yapıcılar, bilim topluluğu ve halk arasında yakın bir diyaloga da ihtiyaç duyuluyor. Bu nedenle Bosch, yapay zekanın etik boyutu gibi konuları incelemek üzere Avrupa Komisyonu tarafından görevlendirilen bir kuruluş olan Yapay Zeka Üst Düzey Uzman Grubu’na katıldı. Halihazırda yedi lokasyondan oluşan bir global ağ içerisinde yer alarak ve Amsterdam Üniversitesi ve Carnegie Mellon Üniversitesi (Pittsburgh, PA) ile iş birliği yaparak Bosch, daha güvenli ve daha güvenilir yapay zeka uygulamaları geliştirme konusunda çalışmalar yürütüyor. Benzer bir şekilde, Baden-Württemberg’de bulunan Cyber Valley (Siber Vadi) araştırma birliğinin bir kurucu üyesi olarak Bosch, 700 uzmanının kısa bir süre içerisinde şirket dışından araştırmacılar ve startup çalışanları ile birlikte çalışmaya başlayacağı bir yapay zeka kampüsünün inşaatına 100 milyon Euro yatırım yaptı. Yine son derece önemli olarak, Bosch tarafından kurulan bir komite olan Dijital Güven Forumu, önde gelen uluslararası dernekler ve örgütlerden uzmanlar arasında yakın bir diyalog geliştirmeyi hedefliyor. Forumun 11 üyesi, Bosch ConnectedWorld 2020’de bir araya geliyor. Bolle, “Ortak hedefimiz, nesnelerin internetini güvenli ve güvenilir hale getirmektir.” dedi.

 

170’ten fazla konuşmacı ve 80den fazla katılımcı

Bosch ConnectedWorld (19–20 Şubat 2020), ağa bağlı dünyada en son trendleri ve gelişmeleri sergileyen 80’den fazla katılımcıyı bir araya getiriyor. 170’in üzerindeki konuşmacı arasında Bosch CEO’su Volkmar Denner ve Bosch CDO/CTO’su Michael Bolle ve ayrıca Roland Busch (Siemens CEO Yardımcısı), Axel Stepken (TÜV Süd Yönetim Kurulu Başkanı) ve Scott Guthrie (Apple Bulut ve Yapay Zeka Grubu Başkan Yardımcısı) yer alıyor. Etkinliğin ana programları arasında açılış konuşmaları, büyük bir fuar ve bir hackathon (yazılım yarışması) bulunuyor. Bu yıl yedincisi düzenlenen Bosch ConnectedWorld, dünyanın nesnelerin internetine adanan en büyük uluslararası forumlarından bir tanesidir.

 

Bir bakışta: Boschun yapay zeka etik kuralları içerisinde yer alan ilkeler

  • Tüm Bosch yapay zeka ürünleri, şirketin bir yenilik arayışını sosyal sorumluluk hissi ile bir araya getiren “Yaşam için teknoloji” sloganımızı yansıtmalıdır.
  • İnsanları etkileyen yapay zeka kararları, son söz insanda olmadan alınmamalıdır. Yapay zeka, insanlar için bir yardımcı ve araç olmalıdır.
  • Güvenli, sağlam ve açıklanabilir yapay zeka ürünleri geliştirmek istiyoruz.
  • Güven, şirketimizin temel değerlerinden bir tanesidir ve kendimizi güvenilir yapay zekaya adadı
  • Yapay zekaların geliştirilmesi sırasında, yasallık ilkesine ve diğer etik ilkelere uyarı

 

Bosch yapay zeka etik kurallarına dair paylaşılan detay metni aşağıda bulabilirsiniz;

“Yaşam için teknoloji” stratejik mottomuza dayanarak, yapay zekalı ürünlerin geliştirilmesi ve kullanımı sırasında sorumluluk içerisinde ve Bosch’un kalite ve güvenilirlik değerlerine göre hareket etmeyi amaçlıyoruz.

Hedefimiz, müşterilerimizin güvenebileceği yapay zekalı ürünler oluşturmaktır.

Bunu başarabilmek için, değerlere dayalı eylemimizi metodolojik ve teknolojik mükemmeliyet ile bir araya getiriyoruz. Geçmeyeceğimiz “kırmızı çizgiler” mevcut. Örneğin, hiçbir yapay zekanın kişilerin veya gruplarının yaşamlarını bir tür değiş tokuşa tabi tutmasına izin vermeyeceğiz.

Aşağıda yer alan ilkeler bize rehberlik etmektedir:

  • Tüm Bosch yapay zeka ürünleri, şirketin bir yenilik arayışını sosyal sorumluluk hissi ile bir araya getiren “Yaşam için teknoloji” sloganımızı yansıtmalıdır.
  • İnsanları etkileyen yapay zeka kararları, son söz insanda olmadan alınmamalıdır. Yapay zeka, insanlar için bir yardımcı ve araç olmalıdır.
  • Güvenli, sağlam ve açıklanabilir yapay zeka ürünleri geliştiriyoruz.
  • Güven, şirketimizin temel değerlerinden bir tanesidir ve kendimizi güvenilir yapay zekaya adadık.
  • Yapay zekaların geliştirilmesi sırasında, yasallık ilkesine ve diğer etik ilkelere uyarız.

Yapay zekanın kullanımı söz konusu olduğunda, aşağıdaki kriterlere uyarız:

  1. Bir yapay zekalı ürün ve/veya bu ürünün kullanımı, Evrensel İnsan Hakları Bildirgesi’nin maddelerini ihlal etmemelidir.
  2. Kullanımı, yapay zekanın üretildiği ülkelerin kanunlarına uymalıdır.
  3. Yapay zekalı ürün kullanımımız “We are Bosch” misyon bildirimi içerisinde yer alan Bosch değerlerine uymalıdır.
  4. Yapay zekalı ürünlere, Yaşam için teknoloji sloganımız rehberlik etmelidir: insanların coşkusunu canlandırmalı, yaşam kalitesini artırmalı ve doğal kaynakları korumalıdır.

Karar verme konusunda yapay zekanın rolüne ilişkin üç yaklaşım:

“Kontrol insanda” (HIC): Bu yaklaşımda, yapay zekalı ürün sadece bir araç olarak kullanılmaktadır. Araç tarafından sunulan sonuçların ne zaman ve nasıl kullanılabileceğine insanlar karar verir. Örnek olarak, bir makinenin sınıflandırma görevlerinde insanlara yardımcı olması gösterilebilir.

“İnsan süreç içerisinde” (HITL): Bu yaklaşımda insanlar, bir yapay zekalı ürün tarafından alınan kararları doğrudan etkileyebilir veya değiştirebilir.

“İnsan sürecin üzerinde” (HOTL): Bu yaklaşım, kararlarla ilgili parametrelerin tasarım süreci sırasında insanlar tarafından belirlendiği, ancak kararların yapay zekalı ürüne delege edildiği bir yaklaşımdır. Uygulama, karardan etkilenen kişilerin inceleme için başvuruda bulunmasına izin verir. Bu, insanların sadece karar verme süreci için önceden parametreleri tanımlamasına değil, aynı zamanda kararın amaçlandığı şekilde uygulanıp uygulanmadığını geriye dönük olarak kontrol etmesine de izin verir.