5 Temmuz 2021 Pazartesi

Yapay Zeka: Gelin birlikte anlayalım

Lisans tezimden yola çıkarak bu yazıyı yazmak istedim yapay zekanın günümüz teknolojisinde ne kadar önemli bir detaya sahip olduğunu yakından inceleyecek hatta bazı durunmlarda ciddiyete kapılır endişe duyacağız.(şaka biraz gerilim iyidir) bende sizler gibi yapay zekayı anlayarak aslında ne olduğunu kavramak istediğim ve projemin ilerleyen safhalarında kullandığım metaryellere kadar size açıklıyorum buyrun okumaya devam.

Yapay Zeka çalışmalarının genel amacı, insan beyninin çalışma mantığının modellenerek, söz konusu modeller vasıtasıyla bilimin her safhasında çığır açacak gelişmelere imza atmaktır. Slage‟ye göre yapay zeka; sezgisel programlama temelinde olan bir yaklaşım olup, “Yapay zeka insanların yaptıklarını bilgisayarlara yaptırabilme çalışmasıdır.” Geneserth ve Nilsson‟a göre yapay zeka, “Akıllı davranış üzerine bir çalışmadır. 

Ana hedefi, doğadaki varlıkların akıllı davranışlarını yapay olarak üretmeyi amaçlayan bir kuram oluşturmasıdır.” Tesler‟e göre ise “şu ana kadar yapılmayanlardır.” Axe göre yapay zeka; “akıllı programların hedefleyen bir bilimdir. Bu programlar aşağıdakileri yapabilmektedir; 1. İnsanın düşüncesini taklit ederek karmaşık problemleri çözebilmek. 2. Yorumlarını açıklayabilmek, yani bir durum karşısında kişiye yanıt verebilmek 3. Öğrenerek uzmanlığını geliştirmek ve eski bilgileri tabanını genişletmektir. 




Yapay Zeka da Bilginin Kullanılışı 

Bilgisayarların, insan zekasının yapabildiği gibi henüz tecrübeleri yada çalışıp öğrenme yetenekleri olmamasına rağmen uzmanlar kullanabilirler. Bu tür bilgiler, olaylar, anlayışlar problem çözme yada karar vermede uygulanabilir olması için düzenlenmiş ve analiz edilmiş bilgidir. Bir yapay zeka sisteminde kullanılacak olan bir problemle ilgili bilgilerin kümesine bilgi tabanı denir.


Akıllı ev sistemleri, yapay zeka teknikleri ile yapılacak olan işlem adımlarını gerçekleştirmek için ev içinde standartların oluşturulması gerekmektedir. Kullanıcının ev otomasyon sistemini kullanırken yaptığı işlemleri takip ederek kayıt edilmesi amaçlanmıştır. Daha sonra bu verileri kullanarak kullanıcı yaptığı işlemleri yapay zeka davranışlarını belirleyerek sonraki adımı tahmin etmektedir. Ancak bu süreç zorlu geçmektedir. 

Çünkü yapay zeka algoritmalarının tam olarak çalışması için sürekli olarak denemeler yapması gerekmektedir. Kullanıcının ev otomasyon sistemini kullanırken yaptığı işlemleri takip ederek kayıt edilmesi amaçlanmıştır. Daha sonra bu verileri kullanarak kullanıcı yaptığı işlemleri yapay zeka davranışlarını belirleyerek sonraki adımı tahmin etmektedir. Ancak bu süreç zorlu geçmektedir. Çünkü yapay zeka algoritmalarının tam olarak çalışması için sürekli olarak denemeler yapması gerekmektedir. 

Bu deneme süreçleri sonuca bağlaması neden-sonuç ilişkisi kurarak ileri ki adımları tahmin etme yetisinin arttırması gerekmektedir. Bunun için gereken süreçte kullanıcıyı sürekli takip ederek verileri kaydederek, veri setleri oluşturması gerekmektedir. Bu süreçte kullanıcının rutinin dışında olması ve belirli davranışları bir daha tekrarlamaması sonucunda kayıtlarda gürültü olma ihtimali yüksek olduğunu göz önünde bulundurmamız gerekir. Ayrıca bu kayıt işlemleri için hedef kitleye uyan örnek bir birey seçilmeli gürültüyü en aza indirerek derin öğrenmenin daha kolay hale gelmesi için çalışılmalıdır.

Yapay Sinir Ağları (YSA) Nedir ?


Canlıların davranışlarını incelenerek, matematiksel modellenmesidir. Yapay modellerin üretilmesi ise sibernetik kavramını doğurmuştur. Eğitilebilir, adaptif ve kendi kendine organize olup öğrenebilen ve değerlendirme yapabilen yapay sinir ağları ile insan beyninin öğrenme yapısı modellenmeye çalışılmaktadır.İnsanlarda olduğu gibi yapay sinir ağları vasıtasıyla makinelerin öğrenmesi ve karar verebilme yeteneğini geliştirmek amaçlanmıştır. 

Yapay Sinir Ağları İnsan ve Makine öğrenimi


İnsan ve Makine öğreinimi ilişkilendirmek  ve daha iyi anlamak için öncelikle insan biyolojisinde bir sinir ağını ardından Makineye modellenmesi ile karşılaştıralım. Öncelikle İnsan biyolojisini anlamak için bir sinir hücresinin biyolojik gösterimini aşağıda gösterilmiştir. 


Sinir Hücresi Biyolojisi

Matematik Modellenmesi için  model olan Sinir Hücresi Biyolojisi  Makine Öğrenimin de kullanılan Matematiksel modellemeyi 

YSA'nın Matematiksel Modellemesi


                    YSA'nın Matematiksel Modellemesi

Yapay Sinir Ağları matematiksel modellenmesinde en küçük yapı taşı olarak bilinen perceptron adı verilmiştir. 1957 yılında Frank Rosenblatt tarafından tanımlanmış bu model günümüzde de Yapay Sinir Ağları Makine öğreniminde çalışmalara destek olmuştur.


Yapay Sinir Ağları Perceptron ile Makine Öğrenimi Nasıl Olmaktadır?

Perceptron modellenmesinde kullanılan denklem


Matematiksel modellenmesi yukarıdaki resimde  gösterilen  perceptron ile modellenmesi (1)’de ki denklem ile ifade edilmiştir.


Y: denklemde x’in değerine bağlı olduğundan bağımlı değişkendir. Girdiye ait skoru verir.
X: Bağımsız değişken, girdi.
W: Ağırlık Parametresi.
B: Bias Değeri
Yapay Sinir Ağları ya da Derin Öğrenme modelinde yapılan temel işlem; modelin en iyi durumu vereceği W ve B parametrelerinin hesabını yapmaktır. Bu işlemin daha iyi anlaşılması için örneklenecektir ;

Yapay Sinir Ağı 1.durum


Yukarıdaki  yer alan tek katmalı Yapay Sinir Ağı modeli ele alalım.  Bu durumda modelde şu işlemler gerçekleştirelebilir; 4+2=6  nöron bulunmaktadır.  Burada giriş katmanını hariç tutmak zorundayız. Daha sonra [3*4]+[4*2]=20 ağırlık parametresini vermektedir. Bias değeri için ise 4+2=6 olmak üzere toplamda 26 adet öğrenilmesi gereken parametre mevcuttur.


Yapay Sinir Ağı 2.durum



2. Durumda ise yukarıdaki resimde belirtildiği gibi iki gizli katmanlı Yapay Sinir Ağı modeli görülmektedir, bu arada ise 4+4+1=9 nöron sayısına sahiptir. Ağırlık parametresini hesaplamak için ise; [3*4]+[4*4]+[4*1]=12+16+4=32 bulunmaktadır. Bias değeri için ise  4+4+1=9 toplamda 41 adet öğrenilmesi gereken parametre vardır.

Bu durumda Tek katmanlı ve çok katmanlı Yapay Sinir Ağı modelleri incelendiğinde önemli bir konunun ayrımına varılmaktadır. Yapay Sinir Ağları nöron incelemesi ile Derin Öğrenmenin en küçük yapı taşı olarak geçmektedir. Bu arada Katman kavramı ilk 1960 yılında Widrow ve Hoff çok katmanlı yapıya geçen ilk çalışmayı yapmışlardır. Böylece “Katman” kavramı Yapay Sinir Ağları konusunun alt başlığında incelenmektedir.




Her katmanın ve her katmanda ki nöronların modele etkisi incelersek; Bir katman içindeki nöronların birbiriyle ilişkisi yoktur ve sistemde bellekte tuttuğu  bilgiyi sonraki katmana ya da çıkışına akarma işini gerçekletirirler. Bu durum her nöron için geçerlidir. Arka arkaya bağlanan nöronlar birbirlerini çeşitli aktivasyon değerleriyle etkilemektedir ve modelin, sistemin öğrenme seviyesini belirleyici bir aktarım yapmaktadır.Bu aktivasyon fonksiyonlarının nasıl seçileceği ileride gösterilecektir.
Yapay Sinir Ağları bir diğer husus modelin bir katmanında bulunan nöron sayısı sistemin performasnı ve kararlılığını dolaylı olarak etkilemektedir.Katman sayısı arttıkça öğrenme performansın iyi bir seviyede olduğunu belirlemesi etken değildir. Çünkü model perfomansı, sadece katman sayısı ve girdilerle ilgisi olmasıdır. Fakat bu parametrelerde yeterli değildir aksine bir çok farklı etkiyen parametrenin etkisi çıkış performasnı etkilemektedir. Ağırlık vektörünün değerlerini oluşturmak buna büyük bir etkendir.

Yapay Sinir Ağ Modeli Tasarlarken Ağırlık Vektörü Oluşturma


Performanslı ve kararlı bir ağ modeli geliştirmek için ağırlık vektörü parametresi büyük değişimlere sebep verir, o yüzden ağırlık vektörü belirlenirken bazı hususlara dikkat edilmesi gerekir. Bu parametre başlangıçta rastgele atanabilir veya sistemin lti sistemler gibi geçmişte bulunan eğitilmiş bir modelin ağırlıkları giriş başlangıç ağırlıkları olarak da tanımlanabilmektedir. Ancak bu değerler atanırken zıt kutup değerli rastgele dağılımlı olarak belirlenmelidir. Sebebi ise “0” değeri verildiği durumlarda hesap katmanlarda devamlı aynı çıkacağından öğrenimi oluşturmaktadır. Bu ise istenmeyen bir durum ortaya koyar. Bunun için optimizasyon fonksiyonları tasarlanarak çözümleme yöntemi mümkündür.


Başarılı performanslı bir şekilde tasarlanmış bir ağ modelinin başarımını belirleyen “Kayıp/Yitim Fonksiyonu” değeri çeşitli optimizasyon teknikleriyle “0” a yaklaşması istenen bir fonksiyondur. Bu durumda eğitim ve test edilmesi ile karşılaştırılmasıyla hesaplama yapılmaktadır.
Bununla birlikte iki kesime uğrayan sebeple karşılaşılmaktadır;
Modelin tüm bilgilerini kullandığımızda elimizde büyük boyutlu bir parametre bilgisi oluşmaktadır.
Test işlemleri oluştururken eğitim setinde tüm verilerle karşılaştırılması yapıldığında bu işlemlerin yükü artar ve tespit süresi uzamaktadır.

Bu iki durumun verimli bir ağ modelinde olmaması gereken hususlardır. Basit bir çözüm oluşturulmak istenirse, test verileri eğitim verilerinden oluşan bir temsil grubuyla eşleştirilerek tespit edilmesi mümkündür. Böylece işlem yükünün azalması sağlanırken, sistemin hız bakımından performans artmasını sağlamaktadır. Burada dikkatli seçilmesi gereken parametre temsil verisinin nasıl seçilmesi gerektiğidir.
Eğitim verisinin içeriğindeki tüm bilgilerin temsil edildiği bir veri elde etmek gerekmektedir. Bunun için öğrenme işleminden sonra ilgili verinin ağırlık matrisi yani ortalaması temsil verisi olarak alınmaktadır. Burada temsil verileri eğitim verileri için örnek oluşumlar verirsek aşağıdaki resimde  verilmektedir. Burada araba, kuş ve kedi temsillerinin ağırlık ortalamaları alınarak eğitim verilerinile eşleştirilirse sistemimizin kararlılığı ve performansımızın iyi bir veri elde edilmesini sağlamaktadır.
 
Temsil Verilerinin Görsel ile Benzetimi


Vektör Oluşturma Kayıp/Yitim Fonksiyonu (Loss funtion)


Kayıp Fonksiyonu olarak ele alacağımız bu değeri Regularizasyon (R) değerin sayesinde Kayıp değeri hiçbir zaman sıfır olmayacaktır. Bu durum tabi ki de ağırlık vektörünün sıfır olduğu durumlar haricinde oluşmaktadır.
Regularizasyon sayısı kullanılması derin öğrenme başarısını  artı yönde katkı sağlamaktadır. Kayıp hesabı yapılırken farklı optimizasyon teknikleri kullanılabilir. Bu tekniklerden biri aşağıdaki şekilde gösterildiği hesaplanabilir.

Vektör oluşturma kayıp fonksiyonu regularizasyon sayısı eklenmesi



Ayrıca Kayıp Fonksiyonu minimum bulmak için regalizasyon sayısı ile rastgele arama, rastgele yerel arama, gradyan iniş takip etme  yöntemleri ile geliştirilebilir. Fakat en etkili yöntemlerden biri olan Geriye Yayılım (Backpropagation) yöntemini incelenecektir.

Başarıyı İçin Geri Yayılım Yöntemi (Backpropagation)


Sistemin kurucusu 1986 yılında Rumelhard ve arkadaşları tarafından kullandığında popülerite kazanmıştır. Gizli katman ve çıkış katmanlarda ki tüm  ağırlıkları hesaba katılmaktadır. Hata sayısı gizli katmanlarda bulunan nöronlara geri dönerek modelin başarımı için başvurulan yöntemdir. Giriş değerleri ağırlık katsayılarıyla çarpılarak gizli katman çıkışından modelin çıkışına aktarılır. Bu zaten ileri  yayılımdır. Geri yayılım sayesinde modelin ağırlık katsayıları yenilenir ve sistem optimize edilmiş olur. Bu arada Transfer fonksiyonlarını devreye girmesi ile aktarım gerçekleştirilmektedir.

Transfer Öğrenimi ve Fonksiyonları 


Transfer öğrenimi, bir görev için oluşturulması ile eğitilen bir modelin, ikinci bir görev başlangıç noktası için tekrar kullanılabileceğini anlamasını sağlayan bir yaklaşım türüdür. Transfer öğrenimi süre gelmiş makine öğreniminden farklıdır, çünkü ikincil bir göreve başlamak için önceden eğitimini alınmış bir modele sıçrama tahtası olarak kullanmayı seçmesi onun çalışma mantığında yatar.Transfer foknsiyonları Şekil ’de verildiği gibi algoritmada yerini almaktadır.
 

Yapay Zeka Akışı



Bu yaklaşımı için insanlar rol model olmuş, bir insanın bir görev için önceden öğrenilen bilgileirni kullanması ile yeni görevi ona göre taklit etmesi benzeri bir örnek olarak nitelendirilebilir. Örneğin Hamza 1.sınıfta öğrendiği kalkülüs yöntemlerini taklit ederek 2.sınıfta aldığı elektromanyetik dalgalar dersinde uygulayabilmesidir.

Transfer Öğrenimi ve Derin Öğrenme ile Birlikte Kullanmanın Yararları


Bir modeli kararlı ve performansını arttırma tüm sistemlerin iyileştirilmesinde temel amaç taşımaktadır. Transfer Öğrenimi ana avantajlaları şunlardır;
Daha az eğitim verisi: Bir modeli sıfırdan eğitmeye başlamak çok zahmetli bir iştir ve çok fazla veri yükü gerektirir.
Modeller daha iyi genelleme yapması bir modelde transfer öğrenimi kullanmak, modeli eğitim görmediği verilerle iyi bir performans göstermeye hazırlar. Bu genelleme olarak bilinir. Transfer öğrenimi baz alınarak yapılan modellemelerde bir görevden diğerine hızlı bir sıçrama ile genellemelere sahip olabilir. Çünkü yeni sıçramalar uygulanabilecek özellikleri tanımlayı daha kolay ve pratik hale getirerek öğrenmek için eğitilmişlik durmunu daha iyi kavrar. Böylelikle iş yükü azalarak daha hızlı bir sistem geliştirilebilir.
Derin öğrenmeyi daha erişebilir hale getirmesi en büyük avantajlardan biridir. Çünkü transfer öğrenimi ile çalışmak derin öğrenmeyi daha kazançlı hale getirir. Bu sayede derin öğrenme uzmanı oluşturulan hazır olan modelleri de sisteminize uygulamak sizin için açık bir kaynak görevi görmesi ile büyük avantaj sağlamaktadır.

Transfer Öğrenme Türleri Nelerdir?

Alan Adı Uyarlaması (Domain adaptation)


Bu yaklaşımda, sistemin eğitildiği bir veri kümesi hedef veri kümesinden farklıdır  ama tamamen ilgili kısmı vardır. Buna iyi bir örnekleme ise spam e-posta filtreleme modelini gösterebiliriz.  A kullanıcısında kullanılan modelinin spam e-postaları tanımlamak için eğitildiğini varsayalım. Model daha sonra B kullanıcısı için kullanıldığında, görevi aynı olsa bile(e-posta filtreleme), B kullanıcısı farklı  türde e-posta alabileceği için A kullanıcısı eğitlir taklit ederek B kullanıcısında olan emailleride ayırabilir.

Çok Görevli Öğrenme (Multitask learning)

Bu yöntem, benzerlik ve farklılılardan yararlanabilmek için aynı anda iki veya daha fazla görevin çözülmesini içermektedir. İlgili bir görev için eğitilmiş bir modelin yeni görevde ki yeteneğini geliştirecek beceriler kazanabileceği fikrine dayanmaktadır.

Sıfır vuruşlu öğrenme (Zero-shot learning)

Bu teknik ise eğitim  sırasında maruz kalmadığı bir görevi çözmeye çalışan bir model içermektedir. Örneğin, resimlerde ki hayvanları tanımlamak için bir model geliştirdiğimizi varsayalım. Hayvanları tanımlamak için, makineye 2 parametre tanımlanması öğretildiği düşünelim, sarı renk ve lekeler olsun. Model daha sonra civcilerin sarı olduğu, ancak lekeleri olmadığı ve lekeleri olduğunu ancak sarı olmadığını bildiği dallanmaları öğrenmeyi öğrendiği birden fazla civciv resmi üzerinde eğitililebilir.

Tek Adımda Öğrenme(One-shot learning)

Bu yöntem, bir modelin bir nesneye bir kez ya da sadece birkaç kez maruz bırakıldıktan sonra nasıl sınıflandırılacağını öğrenmesini gerektirir. Bunu yapmak için ised model bilinen kategoriler hakkında sahip olduğu bilgileri kullanabilmektedir. Örneğin, hayvan sınıflandırma modelimiz bir kedinin nasıl tanımlanacağını bilir. Model daha sonra kediye benzeyen bir köpeği gördüğünde ise model ek resimlere maruz kalmadan kediyi köpekten ayırabilecektir çünkü kediler hakkında zaten sahip olduğu bilgileri aktarmıştır.

Transfer öğrenimi derin öğrenmede yaygın olarak kullanılmaktadır. Derin transfer öğreniminin ana uygulamalarından bazıları transfer öğrenimi doğal  dil işleme (NLP), bilgisayar görme ve konuşma tanımadır.
Transfer öğrenimi NLP, belge tanımlamasını ve metinsel verilerle ilgili diğer görevleri kolaylaştırmak için kullanılmaktadır.Aktivasyon fonksiyonları tanımı bu durumda gösterilmesi gerekmektedir.


Makine Öğreniminde Sinir Ağları Aktivasyon Fonksiyonları


Sinir ağlarında Aktivasyon fonksiyonları Derin öğrenmenin çok önemli bir oluşumudur. Aktivasyon fonksiyonları, derin öğrenme modelinin çıktısını en şekilde doğruluğunu kararlılığını, bir modelin hesaplama verimliliğini belirler. Bu yöntem ile iyi ölçekli bir sinir ağı oluşturabilmektedir. Bu sistemlerin fonksiyonları yakınsama yeteneği ile geliştirilebilir bir modelin bir duruma yakınsaması karar verebilme yeteneği ile bütünleşir. Sistemlerin ve modellerin bu  durum etkinleştirme fonksiyonları ile daha kararlı yapılar elde etmek münkündür. Şekil ’de  genel gösterimi verilmiştir.

Aktivasyon Fonksiyonu Geçerlemesi


Aktivasyon Fonksiyonuna Neden İhtiyaç Duyarız?


Yapay sinir ağlarına doğrusal olmayan gerçek hayat simülasyonuna tanıtmak için aktivasyon fonksiyonlarına ihtiyaç duyulmaktadır. Temel olarak basit bir yapay sinir ağında x girdiler, w ağırlıklar olarak tanımlanır ve ağın çıkışına aktarılan değere yani aktivasyon işlemi uygulanmaktadır. Daha sonra ise bu nihai çıkış ya da bir başka katmanın girişi olacak şekilde ayarlanmaktadır.
Çıkışa aktarılacak bu sinyali aktitive etmeden yapamayız sebebi ise aktivasyon fonksiyonu kullanılmayan bir sinir ağı sınırlı öğrenme gücüne sahip bir doğrusal bağlanım gibi davranacaktır. Ama biz sinir ağımızın doğrusal olmayan durumları da öğrenmesini istiyoruz. Çünkü sinir ağında öğrenmesi için görüntü, video yazı ve ses gibi karmaşık gerçek dünya bilgileri verilmektedir. 

Diğer taraftan basit bir doğrusal sinyalli fonksiyon olur bu da tek dereceli polinomlardan olacağı için gerçek dışı veriler elimizde olur, sistem için bu istenmemiştir.
Birden fazla dereceye sahip olan fonksiyonlara doğrusal olmayan fonksiyonlar denir. Yapay sinir ağları, evrensel fonksiyon yakınsayıcıları olarak tasarlanmış ve bu hedefte çalışması istenmektedir. Bu herhangi bir fonksiyonu hesaplanması, öğrenme özelliğine sahip olmaları gerektiği anlamına gelmektedir. Doğrusal olmayan aktivasyon fonksiyonları sayesinde ağların daha güçlü öğrenmesi sağlanabilir.

Aktivasyon Fonksiyonları


Aktivasyon fonksiyonları, bir sinir ağının çıktısı olarak belirlenen matematiksel denklemlerdir. İşlevi ise ağda ki her bir nörona bağlanır ve nöronları ayrı ayrı model ve sistemin tahmini ile birlikte tetiklemesini gerekli olup olmadığını belirler. Aktivasyon fonksiyonları ayrıca her nöronun çıkışını 1-0 veya -1-1 arasında normalleştirmeye yakınsamasını sağlar.
Aktivasyon fonksiyonları bir sistem de oluşan katmanların da bulunan nöronları  çıktısını sıçraması için veya  ileriye taşımak için etkinleştirmeyi işlevleri kullanılması esas alınmaktadır. Aktivasyon fonksiyonları skaler bir fonksiyon olma özelliği taşırlar. Bir başka deyişle aktivasyon fonksiyonları sinir ağında gizli nöronların ağın modelleme yeteneği olarak adlandırabilir. Aktivasyon fonksiyonlarını inceleyelim.

Basamak Fonksiyonu (Step Function)


İki değer alan bir fonksiyondur ve kuralı gereği ikili sınıflayıcı olarak kullanılır. Bu yüzden genellikle çıkış katmanlarında kullanılmaktadır. Gizli katmanlarda türevi öğrenme değeri temsil etmediği için kullanılması tavsiye edilmediği için gizli katmanlarda kullanılamaz.Bu fonksiyon Şekil’de gösterilmiştir.

Basamak Fonksiyonu

Doğrusal Fonksiyon (Linear Function)



Bir dizi aktivasyon değeri üretir ve bunlar basamak fonksiyonunda olduğu gibi ikili değerler değildir. Birkaç nöron birbirine bağlamayı sağlayabilmektedir. Fakat bu fonksiyonun dezavantajı türevinin sabit olması. Çünkü backpropagation sistemini kullanırken yani geri yayılım algoritmasın ile öğrenme işlemini nöronlar için gerçekleştiriliyordu. Bu algoritma türev alan bir sistemden oluşuyor. Bu sistemlerde geri yayılım algoritması kullanılırsa doğrusal fonksiyon sonuç vermemektedir. Fonksiyon Şekil’de gösterilmiştir.
 
Doğrusal Fonksiyon

Ayrıca tüm katmanlarda doğrusal fonksiyon kullanılırsa giriş katmanı ile çıkış katmanı arasında hep aynı doğrusal sonuca ulaşılır. Doğrusal fonksiyonların doğrusal bir şekilde birleşimi yine bir başka doğrusal fonksiyondur.Aktivasyon fonksiyonları hangi sistemlerde iyi bir şekilde kullanılması uzmanlık istemektedir.

Sigmoid Fonksiyonu


Doğada buluna bir çok olay doğrusal bir sistem değildir. Ve sigmoid bir fonksiyonun kombinasyonları da doğrusal olmaması bize iyi bir aktivasyon fonksiyonu olduğunu göstermektedir. Bu durumda sistemimizin katmanlarını sıraladığımızda ve ağırlıklarını hesapladığımızda aktivasyon fonksiyonları ile filtreden geçirebiliriz. Bu fonksiyon aşağıd da görülmektedir. 

Sigmoid fonksiyonların dezavantajları x-y değerleri çok yavaş tepki vermesi sistemimizde problemler doğrabilir, bu bölgelerde türev değerleri çok küçük olur ve 0’a yakınsar. Buna gradyanların kaybolması(vanishing gradient) denir. Bu durum öğrenme olayını performans düşüklüğüne sebep olmaktadır. Bu durum “0”  olursa o zaman öğrenmede mümkün olmaz. Yavaş bir öğrenme olayı gerçekleşeceğinden dolayı hatayı minimize eden optimizasyon algoritması lokal minimum değerlere takılabilme durumu oluşabilmektedir.
 

Sigmoid Fonksiyonu


Hiperbolik Tanjant Fonksiyonu


Sigmoid fonksiyonuna çok benzer bir yapıya sahiptir. Ancak fonksiyonun aralığı bu kez (-1,+1) olarak tanımlanmıştır. Sigmoid fonksiyonuna göre avantajı ise türevinin daha dik olmas yani daha çok değer alabilmesidir. Bu daha hızlı öğrenme ve sınıflama işlemileri daha geniş aralığa sahip olmasından dolayı daha verimli olabilmektedir. Bu fonksiyonun bazı problemlerde dezavantajı ise gradyanların ölmesi problemi oluşturabilmektedir.
 

Hiperbolik Tanjant Fonksiyonu


Relu Fonksiyonu


Bu fonksiyon ise doğada doğrusal olmayan bir fonksiyon olsa da sektörde iyi bir tahmin edici olarak bilinmektedir. Sebebi ise bu fonksiyon kombinasyonları ile herhangi başka bir fonksiyona da yakınsamak mümkündür. Bu durum ise Yapay Sinir Ağı katmanlarını sıralayabileceğimiz iyi bir seçenek gibi duruyor. 

Relu fonksiyonu [0,+∞] aralığında değer almaktadır. Fonksiyon durumu göz önüne alarak çok fazla nöronlu bir sinir ağı sistemi kurduğumuz varsayalım. Sigmoid ve Hiperbolik tanjant tüm nöronların aynı durumda aktif olmasını sağlarken, ağdaki bazı nöronların aktif olup, aktivasyon seyrek yani verimli bir hesaplama yükü olsun isteriz. Relu fonksiyonu ile bunu sağlayabilmektedir.
 
ReLU Fonksiyonu



Yapay zeka kullanan platformlar , bir çok alt yapıyı görüntü işlemeyi veya metinsel geribildirim argümanlarını , fonksyionlarını iç içe daha anlatacağım çok şey var yani, 

yazının devamı gelecek..

4 Temmuz 2021 Pazar

Yeşil enerjiyi destekleyen kripto para madenciliği CHİA Nedir ?


Chia Çiftliği Nasıl Yapılır?

Nisan ayında bildirdiğimiz gibi, yeni Chia kripto para birimi depolama endüstrisinde dalgalar yaratmaya başladı bile İle Chia anda canlı işlem , işler iyi bir şekilde olsa her zaman değil, daha da ilginç hale gelmiştir. Chia'nın toplam net alanı, ticaret başladığında 1 exabayttan daha az bir hızla genişledi ve şu anda yaklaşık 17 EiB'de oturuyor ve son zamanlarda günde yaklaşık 05. EiB'ye ölçekleniyor. Mevcut eğilimler devam ederse, üç haneli EiB seviyelerine doğru ilerliyor. En son kripto para vagonuna katılmak istiyorsanız, Chia madeni parası yetiştirmeye nasıl başlayacağınız ve bunun iyi bir fikir olup olmadığına dair bazı tavsiyeler burada.


Öncelikle, daha önce başka kripto para birimleriyle uğraştıysanız, Chia çok farklı bir canavardır. Temel blok zinciri konseptlerinden bazıları, daha önce olanlardan kökten farklı değil, ancak Chia madeni para, blok zincirini güvence altına almak için İş Kanıtı algoritmasını terk ediyor ve bunun yerine Mekan Kanıtı'nı – teknik olarak Zaman ve Mekan Kanıtı'nı uyguluyor, ancak ikincisi görünüyor. daha ilgili faktör. Göreve büyük miktarda işlem gücü ayırarak madeni para çıkarmak yerine, Chia sadece depolama parsellerine ihtiyaç duyuyor - ancak bu arazilerin doğru verilerle doldurulması gerekiyor.

Gerçek dünyadaki çiftçilikle yapılan benzetmeler kasıtlıdır. Önce bir tarlayı temizlemeniz gerekir (yani, depolama cihazlarınızda yer kaplayan dosyaları silmeniz), ardından tarlayı sürmeniz ve tohumlamanız (Chia için bir arsa hesaplamanız) ve ardından… bu ekinler Chia blokları olduğunda oldukça uzun zaman alabilir.

[Not: Aşağıdaki matematiği mevcut ağ alanına göre güncelledik. 6/03/2021]

Bir Chia jeton bloğunu çözme şansınız temelde toplam ağ alanı (netspace) içindeki payınıza eşittir. Şu anda, Chia'nın ağ alanı kabaca 16,55 EiB'de (Exbibytes — ikili SI birimi, yani 1 EiB, 2^60 bayta veya 1.152.921.504.606.846.976 bayt ondalık sayıya eşittir). Bu, Chia çizimlerine tam bir 10 TB (10 trilyon bayt) depolama alanı ayırırsanız, yüzde kısmını düşürürsek kazanma ihtimaliniz %0,0000052 veya %0,000000519 olur. Bunlar kulağa korkunç ihtimaller gibi gelebilir - öyleler! - ancak, her gün oluşturulan yaklaşık 4.608 Chia bloğu vardır (10 dakikada 32 blok veya blok başına 18.75 saniye hızı) ve bunlardan herhangi biri arsanızla eşleşebilir. Chia hesaplayıcıları

olsa da, basit matematik size kazanmanız için ortalama süreyi verebilir.Bunu tahmin etmeyi, matematiği kendiniz yapmaktan çok daha kolay hale getirin. Tamamen dolu bir 10 TB HDD, 91 standart Chia bloğunu (her biri 101.4 GiB) depolayabilir. Evet, tembel olmayın ve SI birimleri kesinlikle önemli olduğundan, tebibayt ile terabayt arasında dönüştürmeyi unutmayın. Her neyse, tek bir 10 TB HDD'deki 91 blok, yaklaşık her 418 günde bir blok kazanmalıdır. Aslında, kesin olmak gerekirse, her hafta bir blok kazanma şansı %1,66, bir ayda bir blok kazanma şansı %6,93 ve bir yılda bir blok kazanma şansı %58,24 olacaktır. Netspace artmaya devam ettikçe, şansınız düşecek ve hiçbir şey kazanmadan yıllarca yaşayabilirsiniz - özellikle de şimdilik tek başına çiftçilik yapacağınız için.

Her Chia planı, devasa, karmaşık bir Bingo kartı gibi olur. Arkasında çok fazla matematik var, ancak bu benzetme yeterli olmalı. Bir blok mücadelesi her geldiğinde, Chia ağı çeşitli kurallara göre bir kazanan belirler. Eğer planınız blokla eşleşir ve bloğu 'kazanırsa', blok ödülünü alırsınız (şu anda 2 XCH, Chia'nın jeton kısaltması). Bu blok ödülü, ilk 12 yıl boyunca her üç yılda bir azalacak şekilde ayarlanmıştır, bundan sonra blok ödülü statik ve sonsuz olacaktır . Resmi SSS ödül oranını 10 dakikada 64 XCH olarak listeler ve 0.125 XCH blok ödülü ile 10 dakikada 4 XCH olana kadar her üç yılda bir yarıya indirilir.

Chia çizimi için 512 GB'lık küçük bir tüketici SSD'si kullanmak çok kötü bir fikir.

Tabii şans da işin içine giriyor. Teorik olarak (oldukça düşük bir ihtimal olsa da) sadece birkaç arsaya sahip olmak ve hemen bir blok çözümü kazanmak mümkündür. Yüzlerce parsele sahip olmak ve kabul edilen tek bir çözüm olmadan aylarca devam etmek de mümkündür. Ortalamalar yasası gerektiğini zaman içinde havuz protokollerini deneyerek daha fazla kazanmanız ve kısa sürede kazanç sağlamanız içten bile değil . Şansınızı artırmak istiyorsanız daha fazla depolama alanına ve çok paraya mal olabilecek daha fazla Chia alanına ihtiyacınız olacak. Ayrıca, bir arsanın bir kez kazanması, tekrar kazanamayacağı anlamına gelmez, bu yüzden arsalarınızı kazandıktan sonra silmeyin.

Bu, geçtiğimiz on yılda yüzlerce popüler madeni parayla tekrarlandığını gördüğümüz standart kripto para silahlanma yarışı. Büyük madenciler - bu durumda çiftçiler - toplam Chia pastasından daha fazlasını istiyor ve daha fazla donanım satın almak ve kazanma şanslarını artırmak için acele ediyor. Bunun dışında, bu sefer mesele sadece daha fazla SSD veya HDD satın almak değil. Bu sefer çiftçilerin her birini parsellerle doldurmaları gerekiyor ve testlerimize göre bu ne basit bir iş ne de hızlı bir şekilde yapılabilecek bir şey. Yani iyi bir donanıma sahip olmanız gerekir yüksek bir işlemci ve ram performansı gereksinimine.

Chia Madeni Para Çiftçiliği için Donanım Gereksinimleri






Ethereum ile, gerekli GPU'lara, belki de en iyi madencilik GPU'larından bazılarına sahip olduğunuzda, tek yapmanız gereken onları bir PC'de çalıştırmak. Chia, da durum biraz karışık  tüm bu çiftçilik ve teorilerini bilmeniz ve nasıl çalıştığını anlamanız gerektirir ve bu zaman alır. Ne kadar zaman? Geçici olarak, çok hızlı bir Optane 905P SSD ile standart k=32 grafiği için yaklaşık altı veya yedi saat tipik süres  görünüyor (k=33'te iki kat daha uzun), ancak doğru donanımla aynı anda birden fazla çizim yapmak mümkün. Doğrudan sabit disk depolama alanına çizim yapabilirsiniz, ancak daha sonra iki kat daha uzun sürebilir ve yapabileceğiniz eşzamanlı çizim sayısı temelde bire düşer.

En iyi çözüm, bir veya iki büyük ve hızlı SSD'ye sahip olmaktır ve bol kapasiteye sahip, yüksek dayanıklılığa sahip kurumsal sınıf bir U.2 sürücüsü elde etmek kötü bir fikir değildir. Chia çizimi için 512 GB'lık küçük bir tüketici SSD'si kullanmak çok kötü bir fikirdir, çünkü yalnızca çabuk yıpranacağı için değil, aynı zamanda bir seferde en iyi ihtimalle iki çizim yapabileceği için de. Çizim için büyük SSD'yi kullanın, ardından bitmiş grafikleri büyük bir HDD'ye aktarın. Chia'nın uygulaması bunu yapmanıza izin verecek, ancak biraz titiz olabilir ve geçici depolama alanını aşmak gibi bir şeyler ters giderse, çizim çökecek ve tüm bu işi kaybedeceksiniz. Başka bir deyişle, çiziminizi fazla programlamayın. Madmax kullanmak işinize yarayabilir bunun için bir yazılım kiti hazırladım aşağıda okuyabilirsiniz.

260 GiB SSD'de birden çok kez tek bir çizim yapmayı başarmış olsak da, her 101.4 GiB planın 350 GiB'a kadar geçici depolama gerektirdiği varsayılmaktadır. Çizim işlemi sırasında ortalama yazma hızı değişir, bazen 100 MB/sn'nin üzerine çıkar, diğer zamanlarda sıfıra yaklaşabilir. Düştüğünde, bu genellikle daha fazla hesaplama işi ve hafızanın kullanıldığı anlamına gelir. Çizim ayrıca 4 GiB RAM gerektirir, bu nedenle yine yüksek kapasiteli bellek çubukları kurs için eşittir.

Sonuç olarak, hızlı SSD'ler için ana sınırlayıcı faktör depolama kapasitesi olacaktır. Testlerimize dayanarak, 2 TB SSD (1863 TiB) altı eşzamanlı grafiği işleyebilir. Bundan daha fazlasını yapmak istiyorsanız, ya daha yüksek kapasiteli bir SSD'ye ya da birden çok SSD'ye ihtiyacınız olacak. PC'nizin oluşturduğu her çizim ayrıca 4 GB belleğe ve iki CPU iş parçacığına ihtiyaç duyar ve ölçekleme sınırları var gibi görünüyor. (Çizimin ilk aşaması CPU'yu daha yoğun kullanma eğilimindedir ve ek CPU iş parçacıkları ayırarak zamanını kısaltabilirsiniz.)

Advertisement

Şu anda Chia çiftçiliğine girmek için çok fazla donanım satın almanızı önermediğimizi unutmayın.

Gereksinimlere dayalı olarak, biri daha hızlı çizim için (daha fazla eşzamanlı çizim için) ve diğeri daha yavaş çizim için olmak üzere iki örnek yapı verilmiştir. Şu anda Chia çiftçiliğine girmek için çok fazla donanım satın almanızı önermediğimizi unutmayın. Depolama maliyeti bile yüksek olabilir ve bir şansınız olsun istiyorsanız, buna çok ihtiyacınız var. Çeşitli çiftçilerden duyduklarımıza göre, yüzlerce terabaytlık Chia alanına sahip olmak bile düzenli blok vuruşlarıyla sonuçlanmaz.

Yaklaşık iki ay önce tahmin ettiğimiz gibi Çin'de yaşananlara göre HDD ve SSD fiyatları yükseliyor. Yapabileceğiniz en iyi şey, USB muhafazalarına ihtiyacınız olup olmayacağını hesaba katarak GB başına fiyata odaklanmaktır. Chia hakkında ilk yazdığımızda, HDD'ler 10 TB sürücüler için GB başına yaklaşık 0,02 dolardan başlıyordu. Artık GB başına 0,03 ABD dolarına kadar çıktık ve daha yüksek kapasiteli sürücüler GB başına 0,04 ABD dolarına veya daha fazlasına gidebilir. 14 TB veya daha büyük disklerle gitmek cazip görünse de, önemli ölçüde yüksek fiyatlar bunu kötü bir seçim haline getiriyor. Aslında, mütevazı 5 TB USB HDD'ler, genellikle hala yaklaşık 100 ABD Doları (GB başına 0,20 ABD Doları) karşılığında mevcut olduklarından, şu anda tatlı nokta olma eğilimindedir.

Sanal Makinelerde Tohum Üretin 

Tabii Benim gibi, aklınızda sanal makinelerde üretim yapmak ve kazanmak geliyorsa işte tam olduğunuz yerdesiniz nitekim bir chia dan kazanma ihtimali düşük olan plotlamayı saatlerce yapıp soğuk depolamada tutmak yerine birden fazla sunucularda üretim yaparak eşit bir şekilde sıcak depolama alanlarına dağıtın ücretsiz depolama alanı sunan web siteler var oraları da kullanabilirsiniz. örn.
 

Chia Network söylemine ve bazı havuz araçlarına göre, 5sn de bir plot tarama hızını aşmamanız gerekiyor yoksa kazanç yakalayamazsınız yani blockchain işlemine tabi tutulur bu sırada yükselen depolama alanınız tb larca veriyle dolduğunda bu süre uzar kontrol etmek ve block ödülü kazanmak için bu süreyi 5sn tutuklarını söyleyen chia yönetiminden kurucu aynı zamanda eski bit torent ceo'su olan Bram Cohen bunu çok depresif tuttuklarını kabul ediyorlar.

Yukarıdaki sıcak depolama önerilerimiz için test yaptık yakın zamanda paylaşacağız bu teste göre sıcak depolama alanlarında chia tarlaları tutmanın ne gibi avantajı veya dezavantajı olduğunu buradan tahmin edebilirsiniz 5sn de bir tarama hızı oldukça yüksek bir sayı çünkü soğuk depolamada tarama hızları ms hatta bazı cihazlarda ns seviyelerinde fakat gelgelim uzak bulut depolama teknolojileri bu süreyi çokça yükseltiyorlar uzak sisteme mount etme ve kullanım süreleri dezavantaj olabiliyor. 

Otomatik Chia Plotlayıcı.

Uzak sunucuda tohum yani chia plotlama yapmak mekaşetli bir iş olabilir bunu sizin yerinize otomatik yapan bir script yazdım bu scripti kullanarak linux/ubuntu centos sisrtemlerde plotlama yapmak için zamaan kazanın ayarları güncelleyin ve talimatları uygulayarak depolama hizmetlerinizide satın aldığınız anda başlayın unutmayın sadece yüksek verimli olan sunucular kullanmanızı tavsiye ederim. Yukardaki anlattıklarımıza göre iyi bir kazanç için tohum üretimini asla durdurmayın ve pool yani havuz araçlarını araştırmak isteyebilirsiniz. 


Bu adresten chia otomatik plotlayıcı ile madmax* kurulumu yapın sadece linux cihazlar için otomatik kurucu scriptir. kurulum talimatı için aşağıdaki linke tıklayın. 




Not: Bu sayfada yazılan hiç bir ibare yatırım tavsiyesi veya buna benzer bir şey değildir. Teknoloji web bloğumda sadece bilgi vermek veya ilgilenenler için ücretsiz yazılım desteği vermekteyim bu yazılımlar için herhangi bir maddi manevi zararlardan sorumluluk kabul etmediğimi açıkca beyan ederim. 

5 Aralık 2017 Salı

Cruical, İçine Dünyaları Sığdırabileceğiniz 128 GB'lık Yeni RAM'ini Tanıttı!

Cruical, sunucular için aşırı pahalı 128 GB'lık DDR4 RAM'ini tanıttı.
Evinizde bulunan bilgisayarların RAM miktarı ne kadar? Normal bir bilgisayarınız varsa RAM'i 8 veya 16 GB'dir -diye tahmin ediyorum-. Bu RAM’ler slotlara 4x4 veya 8x8 şeklinde yayılır. Tek slotta ne kadar fazla RAM miktarı varsa fiyat doğru orantılı şekilde artar. Bu yüzden firmalar 32 GB RAM taksalar bile bunları 4 slota 8’er şekilde bölmeyi tercih ederler.

Peki, çok fazla RAM miktarı gerektiren server bilgisayarlarda durum nasıl işliyor? Cruical, sunucular için yeni bir RAM duyurdu. Tek bir slotta 128 GB DDR4-2666 LRDIMM RAM bellek bulunan yeni nesil teknolojili RAM’ler, hem AMD EPYC sistemlerinde hem de Intel Xeon sistemlerinde kullanılabiliyor. Cruical bunun dışında RAM’lerin genel olarak Intel Xeon işlemcilerle çalışabilmesi için geliştirildiğini açıkladı. Yani AMD ile çalışabiliyor, ancak tam performans için Intel Xeon işlemcisinden faydalanmanız doğru olacaktır.

20 nm üretim teknolojisi kullanılarak üretilen Cruical bellekler, 1.2 V ile 2666 MT/S hızında çalışabiliyorlar. Normalde 12 RAM slotu bulunan bir anakarta 64 GB’lık RAM’ler takacak olsak 768GB’lık bellek kapasitesi ile karşılaşırdık. Bu oran Cruical bellekler sayesinde 1.5 TB’a kadar çıkacak.


Sunucu bilgisayarları bizim evimizde kullandığımız bilgisayarlardan çok daha farklı çalışır. Bazı konularda bizim bilgisayarlarımızdan çok daha hızlı olan bu bilgisayarlar, bazı konularda ise büyük sıkıntılar yaşayabiliyorlar. Yani “1.5 TB RAM var, bununla da ne GTA 5 oynanır be” demeyin.

Facebook, Snapchat'ten Özellik Almaya Devam Ediyor!

Snapchat’in seri özelliğiyle kullanıcıların birbirleriyle mesajlaşmaya teşvik etmeyi amaçlayan Facebook, özelliği küçük bir kullanıcı grubu aracılığıyla test etmeye başladı.
Bildiğiniz gibi Facebook, Snapchat’i satın almaya çalışmış ancak bu isteğini gerçekleştirememişti. Sosyal paylaşım sitesi bunun üzerine Snapchat’in özelliklerini çatısı altındaki farklı servislerde kopyalama yoluna gitmişti. Bunlardan ilki de tahmin ettiğiniz gibi 'Hikayeler' özelliği olmuştu. Şimdi de Snapchat’in genç kullanıcı kitlesi tarafından bir hayli beğenilen "seriler" özelliğinin beta kullanımını başlattı. Kullanıcıların daha çok mesaj göndermesine teşvik eden seri özelliği, serilerin sonu yaklaştığında kullanıcıları seriyi sürdürmesi için uyarı gönderiyor. 

Örneğin bir arkadaşınızla 3 gün boyunca sık iletişim kurduysanız yukarıda bulunan görseldeki gibi simgeler kişi adının yanına ekleniyor.
Facebook tarafında bu gelişme için "Mesajlaştığınız farklı insanlarla eğlenceli gerçekleri bir bakışta görmenin yolu" olduğu söyleniyor. Bu özelliği şirket böyle adlandırsa da bize göre Snapchat, ünlü sosyal medya devinin tabiri caizse 'laboratuvarı' olmuş durumda. Test edilen özelliklerden ilgi gören, beğendiklerini alıp kendi uygulamalarına taşıyorlar. 

14 Ekim 2014 Salı

Soğuk Füzyon Gerçek Mi?

cold-fusion-e-cat

Akademik çevrelerde pek ciddiye alınmayan soğuk füzyon konusunda ciddi gelişmeler olabilir.

Küçük bir çekmece dolabı büyüklüğündeki bir cihazdan, yarım gram hidrojen kullanarak, yüzlerce megawatt enerji elde ettiğinizi düşünün. Radyasyon yok, kirlilik yok, herhangi bir tehlike yok! İşte bir mühendis olan Andrea Rossi tarafından geliştirilen E-Cat adlı cihazın bizlere vaat ettiği tam olarak bu!
Tabii Andrea Rossi bu konuda çalışan ilk kişi değil, soğuk füzyon tabir edilen düşük enerjilinükleer reaksiyon (Low Energy Nuclear Reaction – LENR) konusu belki de elli yıldır devamlı kaynayan bir kazan diyebiliriz. Bu konuda devrim yaptığını söyleyen pek çok insanın çalışmalarının ya dolandırıcılık girişimi, ya da basit hesap hataları olduğu defalarca ortaya çıktı.
Bu yüzden akademik çevreler bu konuya gayet şüpheci yaklaşıyorlar. Nitekim E-Cat projesi Andrea Rossi tarafından ilk defa ortaya çıkarıldığında da benzer bir yaklaşım görmüştü. Ancak geçen zaman içinde Rossi tarafından yapılan açıklamalar, en sonunda projenin bağımsız bir grup tarafından denetlenmesini gündeme getirdi. Bu denetleme çalışması İsveç ve İtalya kökenli, konularında tanınmış altı uzmandan oluşan bir ekip tarafından yapılmış.
Sonuçlar beklendiği gibi değil! Uzmanlar bir aydan fazla bir süre bu teknolojiyi çok yakından inceledikten sonra oluşturdukları raporda, bunun bir sahtekarlık girişimi olmadığını açıklamışlar. Bu sistemde nükleere benzeyen bir reaksiyon olduğu ve ortaya yüksek miktarda enerji çıktığı ifade ediliyor. Ancak uzmanlar yine de tedbirli davranıyor ve konu üzerinde daha fazla araştırma yapılmasını tavsiye ederek raporu bitiriyorlar.
Eğer nükleer fizikten anlıyorsanız, Lugano Raporu adı verilen bu rapora buradan erişebilirsiniz. İşin ilginç tarafı, rapor yayınlandıktan sonra bir büyük bankanın hemen indirmiş olması, ardından da petrol tahvillerinde bazı dengesizlikler baş göstermiş. Ayrıca Glasgow Üniversitesi’nin de rapor yayınlandıktan sonra petrol tahvillerini tamamen sattığı söyleniyor. Tabii bunlar söylenti ya da rastlantı olabilir, ama insanın içine kurt düşmüyor değil!

7 Eylül 2014 Pazar

Bilim, Beyinden Beyine Sözlü Mesaj Yollamayı Başardı

Bilim, Beyinden Beyine Sözlü Mesaj Yollamayı BaşardıDünyanın en popüler efsanelerinden olan telepati yeteneği, bilim sayesinde bir adım daha gerçeğe yaklaştı.ABD ve İsrail'den araştırmacı bilim insanları, iki insan beyni arasında doğrudan veri aktarılmasını gerçekleştirdi.

Geleneksel olarak yapılan yöntemlerin aksine, (sözlü ya da yazılı kullanılmayan) veri alışverişi aralarında 5000 km mesafe bulunan denekler arasında gerçekleştirildi. 28 ve50 yaş aralığında olan 4 denekten de başarılı sonuçlar alan yöntem, deneklerin kafa derisine yerleştirilen elektrot sayesinde mesajın algılanması ile başlıyor. 5000 kilometreötedeki alıcıya internet üzerinden ulaştırılan veri,elektromanyetik indüksiyon yöntemi ile mesajı alacak kişinin beynine işleniyor.

Hiçbir şekilde cerrahi müdahele bulunulmayan bu yöntem, internetin, insanoğlunun sanki bir sinir uzantısıymış gibi işlev görmesine ön ayak oldu. Kişisel iletişim açısından baktığımızda devrim yaratacak bir araştırma olduğunu düşündüğümüz bu yöntemin, birbirimizi daha iyi anlamamıza ve farklılıklarımızı kabullenmemize vesile olmasını ümit ediyoruz. (gidipte bilim insanına "acaba şu kız hoşlanıyor mu benden, bi öğrensek ya" tarzında cümleler kurup bu yöntemi kullanmak aklınıza şimdiden gelmeye başladı, değil mi? bizde işte böyle çalışıyor mekanizma)