Abstract :Günümüz internet teknolojilerinin gelişmesi ve kullanıcıların Web 2.0 teknolojileri ile etkileşimi sonucu ortaya çıkan büyük veri olarak adlandırdığımız yapısal olmayan, karmaşık ham veri yığının işlenerek anlamlı bilgiler çıkartılabilir hale dönüştürülmesi günümüzde şirketler arası rekabet ortamında öne çıkan bir konu olmuştur. Böyle büyük hacimli verilerin klasik tek işlemcili sunucu-istemci mimarileri ile yönetilmesi ve işlenmesi hem maliyet hemde başarım açısından akla uygun bir yaklaşım değildir. Büyük verinin merkezi olmayan bakış açısı ile dağıtık dosya sistemleri üzerinden ve birden çok işlemci veya çekirdeğe sahip makinalar ile yönetilmesi sayesinde varolan sorunlar aşılabilmektedir. Çalışmamızda literatürde var olan çeşitli sistemlere dair deneyimlere yer verilerek, genel amaçlı hesaplamanın yapıldığı grafik işlem birimi, Hadoop ve MapReduce çatısı kullanılarak büyük verinin yönetilmesi ve işlenmesine dair kapsayıcı bir literatür taraması yapılmış, elde edilen bulgu ve tartışmalara yer verilmiştir. Bu tarama sonucunda 12 çalışma üzerinden güncel eğilimler ortaya konulmuştur. Keywords : Büyük Veri, dağıtık yazılım mühendisliği, GPGPU, veritabanı, Hadoop