Bir heves alıp sonrasında kitaplığınızda tozlanmaya terk ettiğiniz kitaplar vardır. Çoğu kitap bu sınıfa girer. Bir de öyle kitaplar vardır ki, yıllar geçse de, üzerine belki daha keyifli, daha anlamlı kitaplar da okusanız kendilerini hep hatırlatırlar; onca kitap arasından bir şekilde varlıklarını hissettirirler.
William Gibson'ın Neuromancer'le başlayıp Mona Lisa Overdrive ile tamamlanan Sprawl üçlemesi, Çehov'un hikâyeleri ya da Edip Cansever'in Yerçekimli Karanfil'i gibi asla vaz geçemeyeceğim eserler arasındadır. Sprawl üçlemesi, teknolojinin başını alıp gittiği, yapay zekâ uygulamalarının kendilerini "yaratan" insanlara "ihanet" edip türlü dolaplar çevirdikleri bir geleceği anlatır.
Bilgi teknolojilerindeki gelişmeleri takip ettikçe ister istemez William Gibson'ın yapıtı aklıma geliyor. 31 Temmuz 2010 tarihli Biamag'da yayınlanan Sahi İnternet Beynimize Ne Yapıyor? başlıklı yazıda bilişim araçlarının üzerimizdeki etkisine değinmiştik. Bahsettiğimiz değişim, bir takım davranış değişiklikleri ve fiziksel etkilerden ibaret değil. Çok daha kapsayıcı, sanayi devriminin boyutlarıyla kıyaslanabilecek kapsamda bir değişim sürecini yaşıyoruz.
Uzmanın işi zorlaştı
Sanayi devrimi üretim sürecine makineyi soktu. İşçiye yeni bir rol biçildi. Buhar makinesi, insan emeğini devre dışı bıraktı.
Arama motorlarıyla ulaşılan bilgi ise günümüzde orta sınıfın konumunu ve öz güvenini sarsıyor. İnternet kullanıcısının akla gelebilecek her türlü bilgiye arama motorlarıyla bile ulaşmasına gerek olmadığı, ihtiyaç duyduğu bilginin sosyal medya platformları aracılığıyla "gelip kendisini bulduğu" bir dönemde gazetecilik, doktorluk, öğretmenlik ve mühendislik gibi meslekler yeni görev tanımlarına ihtiyaç duyuyor.
Bilginin esas olduğu, var olan bilgiye sürekli yenisinin eklendiği bir dünyada uzmanlığını sürdürebilmek ciddi çaba, zaman ve sürekli değişim yönünde uyum becerisi istiyor.
Dijitalleşmede adım attığımız bir sonraki aşama uzman meslekleri daha da zorlayacak. Arama motoru denince ilk akla gelen Google, bilgiye erişimi otomatikleştirdi. Makinelerin, yazılım uygulamalarının bilgiyi insan katkısına ihtiyaç duymadan kendileri ürettikleri bir döneme girdik.
Makineler ve yazma eylemi
Teknoloji ve evrim bağlantısı üzerine yazılarıyla adını duyuran Fransız filozof André Leroi-Gourhan ( http://en.wikipedia.org/wiki/Andr%C3%A9_Leroi-Gourhan ), yazma eylemini, DNA ve beyinle birlikte "üçüncü hafızamız" olarak tanımlıyor. Her alanda bilginin dijitalleştiği, veri bankalarının tıka basa dolduğu günümüzde sıra geldi makinelerin bilgiyi kendi üretmesine, bir başka ifadeyle kalemi eline alıp yazmasına...
2005 yılından beri İngiliz matematikçi Stephen Wolfram liderliğindeki bir ekip tarafından geliştirilen Wolfram Alpha ( http://www.wolframalpha.com/ ) isimli internet hizmeti, sözünü ettiğimiz gelişmeye bir örnek. İlk bakışta öyle görünse de Wolfram Alpha aslında bir arama motoru değil. Google girdiğiniz anahtar kavram karşısında indekslediği bağlantıları listeliyor. Wolfram Alpha ise soruyu yanıtlamak için bünyesine kayıtlı veritabanlarına bakıyor, bunları ilişkilendirip yeni bir kayıt oluşturur.
1997 Mayıs'ında Dünya Satranç Şampiyonu Garry Kasparov'u yenmeyi başaran Deep Blue isimli bilgisayarı geliştiren International Business Machines Corporation (IBM) ise işi bir adım daha ileriye götürüyor. IBM bu defa bir yapay zekâ geliştirdi. Şirketin kurucusu Thomas J. Watson anısına Watson adı verilen yazılım, ABD TV'lerinin en çok izlenen bilgi yarışması Jeopardy'ye yarışmacı olarak çıktı. Watson üç tur halinde Jeopardy'den daha önce milyonlarca dolar kazanmış Ken Jennings ve Brad Rutter isimli "iki insan" ile yarıştı.
Watson kilometre taşı oldu
Yarışmadan Watson'ın galip ayrılmış olmasını yapay zekâ araştırmalarında önemli bir kilometre taşı olarak değerlendirmek gerekiyor. Algoritmalara ve formüllere gerek olmadan insanın kendisine sorduğu soruya yine insanın anlayacağı şekilde karşılık veren Watson, yaşadığımız dünya ile dijital evren arasında kapıyı aralamış oldu.
Watson gibi bir proje yılların emeği ve milyonlarca dolarlık yatırımla geliştirilirken yine ABD'de gündeme gelen "Stats Monkey" ve "New at Seven" yazılımları, uygulamaya dönük projeler olarak ilgi çekiyorlar.
"Stats Monkey", Chicago'daki Northwestern Üniversitesi'nde, Prof. Kristian Hammond ve Prof. Larry Birnbaum'un liderliğini yaptığı bir ekip tarafından geliştirildi ( http://infolab.northwestern.edu/projects/stats-monkey/ ). "Stats Monkey", beyzbol karşılaşmalarına gösterilen büyük ilgiden doğdu. ABD'de kolejlerle birlikte on binlerce beyzbol takımı bulunuyor.
Yerel medyanın beyzbol karşılaşmalarını ayrıntısıyla yansıtacak ne kadrosu ne de maddi imkânı var. Okur/izleyici/kullanıcı ise bu maçlara büyük ilgi duyuyor. Northwestern Üniversitesi uzmanları, haber toplama, araştırma ve yazma aşamalarını "Stats Monkey" adını verdikleri bir programa yükleyerek sorunu çözdü.
"Stats Monkey", haberini yazmak için tarih ve karşılaşan takımlar gibi birkaç basit veriye ihtiyaç duyuyor. İnternette yapılan aramada maçla ilgili istatistikler ve maç sonrası değerlendirmeler toparlanıyor. Bunlar, programın veritabanındaki sayısız kalıp ifade ve deyimlerle harmanlanıp haberin metni hazırlanıyor. Programa verilerin girilmesinden haberin ortaya çıkışına kadar geçen süre birkaç saniyeyi bulmuyor.
Robot gazeteciler
"Stats Monkey"in veritabanında yalnızca spor değil ekonomiden politikaya akla gelebilecek hemen her alanda haber yazabilmek için ifade ve kalıp cümleler kayıtlı. "A-Spor evinde kaybetti", "B derbisinde gülen taraf C oldu", "Altın fiyatları yükselişe devam ediyor", "Borsa güne ... puan yükselişle başladı"... Haber dili kısmen değişse bile bazı manşet ve başlıklar var ki belki yüzlerce, binlerce kez görmüşsünüzdür. "Stats Monkey", veritabanına kayıtlı bu ifadelerden yararlanarak başlığını atıp spotunu ve haber metnini yazıyor.
Yine Northwestern Üniversitesi'nde, yine Prof. Hammond'ın liderliğini yaptığı bir ekip tarafından geliştirilen "New at Seven" (7 Haberleri), "robot gazeteciler" tarafından hazırlanan hazırlanan haberlerin bir TV programında sunulabileceğini ortaya koyuyor. "Stats Monkey"in haber üretiminde esas aldığı algoritmalar, bu yazılımın çalışmasını da belirliyor: Önce kullanıcının girdiği anahtar kavramlar çerçevesinde haber siteleri ve bloglar gözden geçiriliyor.
Konuyla ilgili toplanan veriler, biri kadın (Zoe) diğeri erkek (George) iki sanal karakter tarafından araya espriler de serpiştirmek suretiyle bir haber metnine dönüştürülüyor. Diğer taraftan haber metni sunulurken arka planda haberle ilgili bir görüntü aktarılıyor. Bülten, son aşamada internette yayınlanmak üzere Flash Video formatında kaydediliyor.
Ekonomi ve finans haberlerinde uzmanlığıyla bilinen Thomson Reuters haber ajansı da geçen yıl bir bilgisayar yazılımı tarafından otomatik olarak hazırlanan NewsScope ( http://www2.reuters.com/productinfo/newsscopearchive/ ) adlı haber servisini başlattı.
Watson, Stats Monkey ve New at Seven bilgi teknolojilerinin nereye yol almakta olduğunu ortaya koyan örnekler. Önümüzdeki dönemde her iki uygulamayı da prototipe indirgeyecek benzer yazılımların geliştirildiğine tanık olacağız. Bunların ne zaman günlük hayatımızın bir parçası haline geleceği ise, yapay zekâ ve robotik disiplinleri alanında kaydedilecek gelişmeye bağlı olacak. (NH/EÖ)