Genel
Robotlar nasıl tasarlanmalı?
Uzaylı deyince kafanızda nasıl bir şekil belirleniyor? Şimdiye kadar bir uzaylı gördüğünükanıtlayan yok. Gördüğünüiddia edenlerin tarifinden yola çıkarak çizilen uzaylı imajı, “kafatası büyük, çenesi küçük, kocaman gözleri ve küçük ağız-burnu olan bir yaratık” olarak çizilmiş. Peki ya robot deyince aklınıza gelen görüntü? Çoğumuzun aklına dans eden, insanla iletişim kurmaya çalışan “sevimli, zararsız, güvenilir” bir mekanizma gelmiyor mu? İşte bu imaj, insanla robot arasında kurulması istenen “sosyal ilişkinin” de bir göstergesi. Çünkü robot tasarlamak büyük bir sorumluk. Neden mi?
Sağlık, askeri ve güvenliğin yanısıra robotların günlük ve pratik hayatımızda kullanıldığı alanlar yaygınlaştıkça, bu donanımı üreten ABD’nin San Francisco kentindeki Silikon Vadisi şirketleri de İyi Robot Tasarım Konseyi kurdu. Robotik uzmanları ve akademisyenlerden oluşan konsey, robotların tasarlanması, pazarlanması ve kullanımıyla ilgili 5 etik kural belirledi:
Sağlık, askeri ve güvenliğin yanısıra robotların günlük ve pratik hayatımızda kullanıldığı alanlar yaygınlaştıkça, bu donanımı üreten ABD’nin San Francisco kentindeki Silikon Vadisi şirketleri de İyi Robot Tasarım Konseyi kurdu. Robotik uzmanları ve akademisyenlerden oluşan konsey, robotların tasarlanması, pazarlanması ve kullanımıyla ilgili 5 etik kural belirledi:
1-Robotlar silah olarak tasarlanmamalı
2-Özel yaşama saygıdahil, mevcut kanunlara uyumlu olmalı
3-Güvenli ve güvenilir ürünler olmalı; kapasiteleri yanlış anlaşılmamalı
4-Robotlar birer ürün; bu nedenle yarattıkları duygu ve güç ilüzyonu, savunmasız kullanıcıları istismar etmek için kullanılmamalı
5-Üretilen bir robottan kimin sorumlu olduğu belli olmalı
ROBOT ÜRETİMİ ETİK KURALLARA BAĞLI
Silikon Vadisi’nin etik kuralları 2010’da İngiltere Mühendislik ve Fizik Araştırmaları Konseyi (EPSRC) tarafından belirlenen prensipler üzerine geliştirilirken, geçtiğimiz aylarda İngiltere Standartları Enstitüsü’nün(BSI) bünyesinde kurulan ve biliminsanları, akademisyen, etik uzmanı, filozof ve robot kullanıcılarının oluşturduğu bir komite, etik anlamında içerdiği riskleri gözönünde bulundurarak “robort standartlarını” belirledi. Bu standartlar “sosyal robotlar ve yapay zeka” üzerine düzenlenen Londra’daki bir konferansta kamuoyuna ilan edildi.
Hem ABD’de, hem de İngiltere’de belirlenen etik kuralların temelini ise, robotiğin babası olarak bilenen, ABD’li bilimadamı-bilim kurgu yazarı Isaac Asimov’un (1920-1992) 1950’de I. Robot isimli kitabında değindiği üç altın robotik kanunu oluşturuyor:
1-Robot bir insanı yaralayamaz veya interaksiyon yoluyla insana zarar veremez
2-Birinci maddedeki maddede belirtilen emirlerle çatışması dışında, robot insanlar tarafından verilen emirleri uymalı
3-Birinci veya ikinci maddeyle çatışmadığı sürece, robot kendi varlığını korumalı
JAPONYA’DA BAKIMEVLERİNDE KULLANILAN TÜYLÜ ROBOT PARO |
ROBOTLAR DUYGUSAL BAĞ YARATIYOR
Ülkemizde henüz olmasa da, robotlar dünyada sosyal hayata karıştıkça etiğe ilişkin sorunlar da artıyor. Özellikle de söz konusu çocuklar ve yaşlılar olduğunda. Japonya’da üretilenPARO isimli tüylü terapi robotunun, hastanede yaşlılar üzerinde etkili olduğuna şüphe yok. Sevimli bir denizaslanı olan PARO, kendisini sevdirmek için elinden geleni yapıyor. Bir tür hayvan terapisi yöntemi olarak geliştirilen PARO, yaşlıların stresini almakla kalmayıp onların sevgilerini ve ilgilerini bir hayvana yoğunlaşmasını sağlıyor. Yaşlılar PARO’yu okşuyor, onunla konuşuyor, kucaklıyor. O da bunlara, yapay zekası yardımıyla duygusal tepki veriyor. Tıpkı bir köpek veya kedi gibi. Peki ya bu ilişki sonlandırıldığında?
AIBO |
Japonya’da üretimi durdurulan AIBO isimli köpek robot, bu duygusal bir ilişkinin acıbir şekilde sonlandırıldığı kötübir örnek oldu. Sony, 1999’da piyasaya sürdüğü AIBO’nun yedek parçalarının üretimini 2014’te durdurdu. Pek çok insan için bu, evinde yıllarca beslediği köpeğinin gözlerinin önünde yavaşça ölmesi gibiydi. Başta kedi ve köpek olmak üzere hayvanlara karşı en sevgi dolu milletlerden biri olan Japonlardan bazıları, AIBO için cenaze töreni düzenledi.