Veri büyürken ne yapıyoruz?
Geçen temmuz, Ay'a ayak basışın 45. yıldünümüydü. CNN’de program yapan Amerikalı yorumcu Fareed Zakaria, şu soruyu sordu: “Bir iPhone5’in belleği, astronotları Ay'a götüren Apollo uzay aracının yönlendirme sistemine göre kaç kat daha güçlüdür?”
Dört seçenek sundu: 100 bin kat? 624 bin kat? 1.8 milyon kat? 5.4 milyon kat?
Doğru seçeneği, programın sonunda açıkladı Zakaria: Tek bir iPhone5 belleği 64 milyon kilobyte gücünde ve bu, Apollo uzay aracı belleğinin sadece 36 kilobyte gücünden 1.8 milyon kat daha güçlü.
1969’da en güçlü tek bilgisayar, 36 kilobyte bellekle, üç astronotu Ay'a götürmüş getirmişti. Bugün, dünyada yaklaşık 103 milyon iPhone5 var. Tek bir bilgisayarın belleğinden, milyonlarca bilgisayarın belleklerine bir kuantum sıçraması yaşıyoruz.
Büyük veri denilen şey de zaten bu nedenle ortaya çıkıyor. Veri her zaman vardı. Ama IBM, 2012’de, “İnsanlık tarihi boyunca toplanan verinin yüzde 90’ı sadece son 2 yılda üretildi” cümlesini telaff uz ettiğinden beri büyük verinin iyice farkındayız. Veri üretimi hızlanarak artıyor.
12 sıfırlı terabyte’tan 15 sıfırlı petabyte’a, 18 sıfırlı exabyte’a, 21 sıfırlı zetabyte’a ilerliyoruz. Ardından 24 sıfırlı yottabyte gelecek. 2020’ye kalmadan yeni bir isim daha gündelik dile girecek: 27 sıfırlı brontobyte. 2025 gibi 30 sıfırlı geobyte... Bu gidişin sonu yok.
Bugün gigabyte (sadece 9 sıfır) veya terabyte (12 sıfır), “normal” bir hayatta kullandığımız bellek hacmi. Sırf kıyaslama olsun diye: Yeni model bir akıllı telefonla bir video çekimi, dakikada 100 megabyte (6 sıfır) veri üretiyor.
Verinin gitgide büyümesiyle birlikte, bunun nasıl işleneceği sorunu da büyüyor. Veriyi işleyecek transistörler ufala ufala küçülürken, ortaya, kontrol edilemeyen “kuantum sorunları” çıkmaya başlamış: Çünkü element atomları, nano düzeyde, Newton Fiziği’nden farklı davrandığı için “ne yapacakları belli değil.”
Bu nedenle, bilişim devi HP, 60 yıllık bilgisayar mimari sistemi yerine, bambaşka ilkelere göre çalışacak yepyeni bir bilgisayar bellek “türü” peşinde: Belleği, elektronlara değil, “ionlara” yükleyecek. Pozitif veya negatif yükü olan atom ve moleküllerden oluşan ion, “yeni nesil” transistör olacak. Daha az yer tutacak. Bu durumda, bir veriyi bir yerden alıp işlemek için başka bir yere taşımaya gerek kalmayacak. Veri, üretildiği yerde, oracıkta “bu yepyeni bilgisayar sistemi” yardımıyla işlenecek. Bu, yerinde işleme sayesinde enerji, para, zaman tasarrufu. Yeni cihazın adı şimdilik: “Makine” (Machine). Veri işlemeyi elektron yapacak. İletimi foton (ışık) sağlayacak. Bellek, ionda saklanacak. Bu, atomik düzeyde bilişim: Sırf, büyük veriyle başetmek uğruna... HP, makinesini 2017- 19 piyasaya çıkartmayı hedefl iyor.
Bu konu sadece HP’nin “derdi” değil, IBM gibi başkaları da yenilikçi çözümler arıyor. Donanımcıların yanı sıra, büyük veriyle uğraşacak “yeni nesil” uzmanlara ihtiyaç, aciliyet düzeyinde.
Büyük verinin yönetimi için yeni bir uzmanlık dalı ortaya çıktı: Veri Bilimi (data science). Bu yıl bir “Veri Bilimi Merkezi” kuran New York Üniversitesi (NYU) ile California Üniversitesi/Berkeley ve Seattle’daki University of Washington 5 yıl süreyle, iki ayrı vakıftan sağladıkları 37.8 milyon dolar destekle bu konuda ortak çalışmaya başlayacaklar. Ve bu, bu sütunda kalan yere sığan sadece bir örnek. Başkaları da var.
Türkiye? 2014-18 Bilgi Toplumu Stratejisi’nde (s.154) şöyle diyor: Büyük verinin ekonomik değere dönüşmesi sağlanacak. Sosyal güvenlik alanında büyük veri uygulamaları belirlenecek. Bu alanlarla ilgili fayda ve maliyet analizleri yapılacak.