teknoloji etiketine sahip kayıtlar gösteriliyor. Tüm kayıtları göster
teknoloji etiketine sahip kayıtlar gösteriliyor. Tüm kayıtları göster

5 Temmuz 2021 Pazartesi

Yapay Zeka: Gelin birlikte anlayalım

Lisans tezimden yola çıkarak bu yazıyı yazmak istedim yapay zekanın günümüz teknolojisinde ne kadar önemli bir detaya sahip olduğunu yakından inceleyecek hatta bazı durunmlarda ciddiyete kapılır endişe duyacağız.(şaka biraz gerilim iyidir) bende sizler gibi yapay zekayı anlayarak aslında ne olduğunu kavramak istediğim ve projemin ilerleyen safhalarında kullandığım metaryellere kadar size açıklıyorum buyrun okumaya devam.

Yapay Zeka çalışmalarının genel amacı, insan beyninin çalışma mantığının modellenerek, söz konusu modeller vasıtasıyla bilimin her safhasında çığır açacak gelişmelere imza atmaktır. Slage‟ye göre yapay zeka; sezgisel programlama temelinde olan bir yaklaşım olup, “Yapay zeka insanların yaptıklarını bilgisayarlara yaptırabilme çalışmasıdır.” Geneserth ve Nilsson‟a göre yapay zeka, “Akıllı davranış üzerine bir çalışmadır. 

Ana hedefi, doğadaki varlıkların akıllı davranışlarını yapay olarak üretmeyi amaçlayan bir kuram oluşturmasıdır.” Tesler‟e göre ise “şu ana kadar yapılmayanlardır.” Axe göre yapay zeka; “akıllı programların hedefleyen bir bilimdir. Bu programlar aşağıdakileri yapabilmektedir; 1. İnsanın düşüncesini taklit ederek karmaşık problemleri çözebilmek. 2. Yorumlarını açıklayabilmek, yani bir durum karşısında kişiye yanıt verebilmek 3. Öğrenerek uzmanlığını geliştirmek ve eski bilgileri tabanını genişletmektir. 




Yapay Zeka da Bilginin Kullanılışı 

Bilgisayarların, insan zekasının yapabildiği gibi henüz tecrübeleri yada çalışıp öğrenme yetenekleri olmamasına rağmen uzmanlar kullanabilirler. Bu tür bilgiler, olaylar, anlayışlar problem çözme yada karar vermede uygulanabilir olması için düzenlenmiş ve analiz edilmiş bilgidir. Bir yapay zeka sisteminde kullanılacak olan bir problemle ilgili bilgilerin kümesine bilgi tabanı denir.


Akıllı ev sistemleri, yapay zeka teknikleri ile yapılacak olan işlem adımlarını gerçekleştirmek için ev içinde standartların oluşturulması gerekmektedir. Kullanıcının ev otomasyon sistemini kullanırken yaptığı işlemleri takip ederek kayıt edilmesi amaçlanmıştır. Daha sonra bu verileri kullanarak kullanıcı yaptığı işlemleri yapay zeka davranışlarını belirleyerek sonraki adımı tahmin etmektedir. Ancak bu süreç zorlu geçmektedir. 

Çünkü yapay zeka algoritmalarının tam olarak çalışması için sürekli olarak denemeler yapması gerekmektedir. Kullanıcının ev otomasyon sistemini kullanırken yaptığı işlemleri takip ederek kayıt edilmesi amaçlanmıştır. Daha sonra bu verileri kullanarak kullanıcı yaptığı işlemleri yapay zeka davranışlarını belirleyerek sonraki adımı tahmin etmektedir. Ancak bu süreç zorlu geçmektedir. Çünkü yapay zeka algoritmalarının tam olarak çalışması için sürekli olarak denemeler yapması gerekmektedir. 

Bu deneme süreçleri sonuca bağlaması neden-sonuç ilişkisi kurarak ileri ki adımları tahmin etme yetisinin arttırması gerekmektedir. Bunun için gereken süreçte kullanıcıyı sürekli takip ederek verileri kaydederek, veri setleri oluşturması gerekmektedir. Bu süreçte kullanıcının rutinin dışında olması ve belirli davranışları bir daha tekrarlamaması sonucunda kayıtlarda gürültü olma ihtimali yüksek olduğunu göz önünde bulundurmamız gerekir. Ayrıca bu kayıt işlemleri için hedef kitleye uyan örnek bir birey seçilmeli gürültüyü en aza indirerek derin öğrenmenin daha kolay hale gelmesi için çalışılmalıdır.

Yapay Sinir Ağları (YSA) Nedir ?


Canlıların davranışlarını incelenerek, matematiksel modellenmesidir. Yapay modellerin üretilmesi ise sibernetik kavramını doğurmuştur. Eğitilebilir, adaptif ve kendi kendine organize olup öğrenebilen ve değerlendirme yapabilen yapay sinir ağları ile insan beyninin öğrenme yapısı modellenmeye çalışılmaktadır.İnsanlarda olduğu gibi yapay sinir ağları vasıtasıyla makinelerin öğrenmesi ve karar verebilme yeteneğini geliştirmek amaçlanmıştır. 

Yapay Sinir Ağları İnsan ve Makine öğrenimi


İnsan ve Makine öğreinimi ilişkilendirmek  ve daha iyi anlamak için öncelikle insan biyolojisinde bir sinir ağını ardından Makineye modellenmesi ile karşılaştıralım. Öncelikle İnsan biyolojisini anlamak için bir sinir hücresinin biyolojik gösterimini aşağıda gösterilmiştir. 


Sinir Hücresi Biyolojisi

Matematik Modellenmesi için  model olan Sinir Hücresi Biyolojisi  Makine Öğrenimin de kullanılan Matematiksel modellemeyi 

YSA'nın Matematiksel Modellemesi


                    YSA'nın Matematiksel Modellemesi

Yapay Sinir Ağları matematiksel modellenmesinde en küçük yapı taşı olarak bilinen perceptron adı verilmiştir. 1957 yılında Frank Rosenblatt tarafından tanımlanmış bu model günümüzde de Yapay Sinir Ağları Makine öğreniminde çalışmalara destek olmuştur.


Yapay Sinir Ağları Perceptron ile Makine Öğrenimi Nasıl Olmaktadır?

Perceptron modellenmesinde kullanılan denklem


Matematiksel modellenmesi yukarıdaki resimde  gösterilen  perceptron ile modellenmesi (1)’de ki denklem ile ifade edilmiştir.


Y: denklemde x’in değerine bağlı olduğundan bağımlı değişkendir. Girdiye ait skoru verir.
X: Bağımsız değişken, girdi.
W: Ağırlık Parametresi.
B: Bias Değeri
Yapay Sinir Ağları ya da Derin Öğrenme modelinde yapılan temel işlem; modelin en iyi durumu vereceği W ve B parametrelerinin hesabını yapmaktır. Bu işlemin daha iyi anlaşılması için örneklenecektir ;

Yapay Sinir Ağı 1.durum


Yukarıdaki  yer alan tek katmalı Yapay Sinir Ağı modeli ele alalım.  Bu durumda modelde şu işlemler gerçekleştirelebilir; 4+2=6  nöron bulunmaktadır.  Burada giriş katmanını hariç tutmak zorundayız. Daha sonra [3*4]+[4*2]=20 ağırlık parametresini vermektedir. Bias değeri için ise 4+2=6 olmak üzere toplamda 26 adet öğrenilmesi gereken parametre mevcuttur.


Yapay Sinir Ağı 2.durum



2. Durumda ise yukarıdaki resimde belirtildiği gibi iki gizli katmanlı Yapay Sinir Ağı modeli görülmektedir, bu arada ise 4+4+1=9 nöron sayısına sahiptir. Ağırlık parametresini hesaplamak için ise; [3*4]+[4*4]+[4*1]=12+16+4=32 bulunmaktadır. Bias değeri için ise  4+4+1=9 toplamda 41 adet öğrenilmesi gereken parametre vardır.

Bu durumda Tek katmanlı ve çok katmanlı Yapay Sinir Ağı modelleri incelendiğinde önemli bir konunun ayrımına varılmaktadır. Yapay Sinir Ağları nöron incelemesi ile Derin Öğrenmenin en küçük yapı taşı olarak geçmektedir. Bu arada Katman kavramı ilk 1960 yılında Widrow ve Hoff çok katmanlı yapıya geçen ilk çalışmayı yapmışlardır. Böylece “Katman” kavramı Yapay Sinir Ağları konusunun alt başlığında incelenmektedir.




Her katmanın ve her katmanda ki nöronların modele etkisi incelersek; Bir katman içindeki nöronların birbiriyle ilişkisi yoktur ve sistemde bellekte tuttuğu  bilgiyi sonraki katmana ya da çıkışına akarma işini gerçekletirirler. Bu durum her nöron için geçerlidir. Arka arkaya bağlanan nöronlar birbirlerini çeşitli aktivasyon değerleriyle etkilemektedir ve modelin, sistemin öğrenme seviyesini belirleyici bir aktarım yapmaktadır.Bu aktivasyon fonksiyonlarının nasıl seçileceği ileride gösterilecektir.
Yapay Sinir Ağları bir diğer husus modelin bir katmanında bulunan nöron sayısı sistemin performasnı ve kararlılığını dolaylı olarak etkilemektedir.Katman sayısı arttıkça öğrenme performansın iyi bir seviyede olduğunu belirlemesi etken değildir. Çünkü model perfomansı, sadece katman sayısı ve girdilerle ilgisi olmasıdır. Fakat bu parametrelerde yeterli değildir aksine bir çok farklı etkiyen parametrenin etkisi çıkış performasnı etkilemektedir. Ağırlık vektörünün değerlerini oluşturmak buna büyük bir etkendir.

Yapay Sinir Ağ Modeli Tasarlarken Ağırlık Vektörü Oluşturma


Performanslı ve kararlı bir ağ modeli geliştirmek için ağırlık vektörü parametresi büyük değişimlere sebep verir, o yüzden ağırlık vektörü belirlenirken bazı hususlara dikkat edilmesi gerekir. Bu parametre başlangıçta rastgele atanabilir veya sistemin lti sistemler gibi geçmişte bulunan eğitilmiş bir modelin ağırlıkları giriş başlangıç ağırlıkları olarak da tanımlanabilmektedir. Ancak bu değerler atanırken zıt kutup değerli rastgele dağılımlı olarak belirlenmelidir. Sebebi ise “0” değeri verildiği durumlarda hesap katmanlarda devamlı aynı çıkacağından öğrenimi oluşturmaktadır. Bu ise istenmeyen bir durum ortaya koyar. Bunun için optimizasyon fonksiyonları tasarlanarak çözümleme yöntemi mümkündür.


Başarılı performanslı bir şekilde tasarlanmış bir ağ modelinin başarımını belirleyen “Kayıp/Yitim Fonksiyonu” değeri çeşitli optimizasyon teknikleriyle “0” a yaklaşması istenen bir fonksiyondur. Bu durumda eğitim ve test edilmesi ile karşılaştırılmasıyla hesaplama yapılmaktadır.
Bununla birlikte iki kesime uğrayan sebeple karşılaşılmaktadır;
Modelin tüm bilgilerini kullandığımızda elimizde büyük boyutlu bir parametre bilgisi oluşmaktadır.
Test işlemleri oluştururken eğitim setinde tüm verilerle karşılaştırılması yapıldığında bu işlemlerin yükü artar ve tespit süresi uzamaktadır.

Bu iki durumun verimli bir ağ modelinde olmaması gereken hususlardır. Basit bir çözüm oluşturulmak istenirse, test verileri eğitim verilerinden oluşan bir temsil grubuyla eşleştirilerek tespit edilmesi mümkündür. Böylece işlem yükünün azalması sağlanırken, sistemin hız bakımından performans artmasını sağlamaktadır. Burada dikkatli seçilmesi gereken parametre temsil verisinin nasıl seçilmesi gerektiğidir.
Eğitim verisinin içeriğindeki tüm bilgilerin temsil edildiği bir veri elde etmek gerekmektedir. Bunun için öğrenme işleminden sonra ilgili verinin ağırlık matrisi yani ortalaması temsil verisi olarak alınmaktadır. Burada temsil verileri eğitim verileri için örnek oluşumlar verirsek aşağıdaki resimde  verilmektedir. Burada araba, kuş ve kedi temsillerinin ağırlık ortalamaları alınarak eğitim verilerinile eşleştirilirse sistemimizin kararlılığı ve performansımızın iyi bir veri elde edilmesini sağlamaktadır.
 
Temsil Verilerinin Görsel ile Benzetimi


Vektör Oluşturma Kayıp/Yitim Fonksiyonu (Loss funtion)


Kayıp Fonksiyonu olarak ele alacağımız bu değeri Regularizasyon (R) değerin sayesinde Kayıp değeri hiçbir zaman sıfır olmayacaktır. Bu durum tabi ki de ağırlık vektörünün sıfır olduğu durumlar haricinde oluşmaktadır.
Regularizasyon sayısı kullanılması derin öğrenme başarısını  artı yönde katkı sağlamaktadır. Kayıp hesabı yapılırken farklı optimizasyon teknikleri kullanılabilir. Bu tekniklerden biri aşağıdaki şekilde gösterildiği hesaplanabilir.

Vektör oluşturma kayıp fonksiyonu regularizasyon sayısı eklenmesi



Ayrıca Kayıp Fonksiyonu minimum bulmak için regalizasyon sayısı ile rastgele arama, rastgele yerel arama, gradyan iniş takip etme  yöntemleri ile geliştirilebilir. Fakat en etkili yöntemlerden biri olan Geriye Yayılım (Backpropagation) yöntemini incelenecektir.

Başarıyı İçin Geri Yayılım Yöntemi (Backpropagation)


Sistemin kurucusu 1986 yılında Rumelhard ve arkadaşları tarafından kullandığında popülerite kazanmıştır. Gizli katman ve çıkış katmanlarda ki tüm  ağırlıkları hesaba katılmaktadır. Hata sayısı gizli katmanlarda bulunan nöronlara geri dönerek modelin başarımı için başvurulan yöntemdir. Giriş değerleri ağırlık katsayılarıyla çarpılarak gizli katman çıkışından modelin çıkışına aktarılır. Bu zaten ileri  yayılımdır. Geri yayılım sayesinde modelin ağırlık katsayıları yenilenir ve sistem optimize edilmiş olur. Bu arada Transfer fonksiyonlarını devreye girmesi ile aktarım gerçekleştirilmektedir.

Transfer Öğrenimi ve Fonksiyonları 


Transfer öğrenimi, bir görev için oluşturulması ile eğitilen bir modelin, ikinci bir görev başlangıç noktası için tekrar kullanılabileceğini anlamasını sağlayan bir yaklaşım türüdür. Transfer öğrenimi süre gelmiş makine öğreniminden farklıdır, çünkü ikincil bir göreve başlamak için önceden eğitimini alınmış bir modele sıçrama tahtası olarak kullanmayı seçmesi onun çalışma mantığında yatar.Transfer foknsiyonları Şekil ’de verildiği gibi algoritmada yerini almaktadır.
 

Yapay Zeka Akışı



Bu yaklaşımı için insanlar rol model olmuş, bir insanın bir görev için önceden öğrenilen bilgileirni kullanması ile yeni görevi ona göre taklit etmesi benzeri bir örnek olarak nitelendirilebilir. Örneğin Hamza 1.sınıfta öğrendiği kalkülüs yöntemlerini taklit ederek 2.sınıfta aldığı elektromanyetik dalgalar dersinde uygulayabilmesidir.

Transfer Öğrenimi ve Derin Öğrenme ile Birlikte Kullanmanın Yararları


Bir modeli kararlı ve performansını arttırma tüm sistemlerin iyileştirilmesinde temel amaç taşımaktadır. Transfer Öğrenimi ana avantajlaları şunlardır;
Daha az eğitim verisi: Bir modeli sıfırdan eğitmeye başlamak çok zahmetli bir iştir ve çok fazla veri yükü gerektirir.
Modeller daha iyi genelleme yapması bir modelde transfer öğrenimi kullanmak, modeli eğitim görmediği verilerle iyi bir performans göstermeye hazırlar. Bu genelleme olarak bilinir. Transfer öğrenimi baz alınarak yapılan modellemelerde bir görevden diğerine hızlı bir sıçrama ile genellemelere sahip olabilir. Çünkü yeni sıçramalar uygulanabilecek özellikleri tanımlayı daha kolay ve pratik hale getirerek öğrenmek için eğitilmişlik durmunu daha iyi kavrar. Böylelikle iş yükü azalarak daha hızlı bir sistem geliştirilebilir.
Derin öğrenmeyi daha erişebilir hale getirmesi en büyük avantajlardan biridir. Çünkü transfer öğrenimi ile çalışmak derin öğrenmeyi daha kazançlı hale getirir. Bu sayede derin öğrenme uzmanı oluşturulan hazır olan modelleri de sisteminize uygulamak sizin için açık bir kaynak görevi görmesi ile büyük avantaj sağlamaktadır.

Transfer Öğrenme Türleri Nelerdir?

Alan Adı Uyarlaması (Domain adaptation)


Bu yaklaşımda, sistemin eğitildiği bir veri kümesi hedef veri kümesinden farklıdır  ama tamamen ilgili kısmı vardır. Buna iyi bir örnekleme ise spam e-posta filtreleme modelini gösterebiliriz.  A kullanıcısında kullanılan modelinin spam e-postaları tanımlamak için eğitildiğini varsayalım. Model daha sonra B kullanıcısı için kullanıldığında, görevi aynı olsa bile(e-posta filtreleme), B kullanıcısı farklı  türde e-posta alabileceği için A kullanıcısı eğitlir taklit ederek B kullanıcısında olan emailleride ayırabilir.

Çok Görevli Öğrenme (Multitask learning)

Bu yöntem, benzerlik ve farklılılardan yararlanabilmek için aynı anda iki veya daha fazla görevin çözülmesini içermektedir. İlgili bir görev için eğitilmiş bir modelin yeni görevde ki yeteneğini geliştirecek beceriler kazanabileceği fikrine dayanmaktadır.

Sıfır vuruşlu öğrenme (Zero-shot learning)

Bu teknik ise eğitim  sırasında maruz kalmadığı bir görevi çözmeye çalışan bir model içermektedir. Örneğin, resimlerde ki hayvanları tanımlamak için bir model geliştirdiğimizi varsayalım. Hayvanları tanımlamak için, makineye 2 parametre tanımlanması öğretildiği düşünelim, sarı renk ve lekeler olsun. Model daha sonra civcilerin sarı olduğu, ancak lekeleri olmadığı ve lekeleri olduğunu ancak sarı olmadığını bildiği dallanmaları öğrenmeyi öğrendiği birden fazla civciv resmi üzerinde eğitililebilir.

Tek Adımda Öğrenme(One-shot learning)

Bu yöntem, bir modelin bir nesneye bir kez ya da sadece birkaç kez maruz bırakıldıktan sonra nasıl sınıflandırılacağını öğrenmesini gerektirir. Bunu yapmak için ised model bilinen kategoriler hakkında sahip olduğu bilgileri kullanabilmektedir. Örneğin, hayvan sınıflandırma modelimiz bir kedinin nasıl tanımlanacağını bilir. Model daha sonra kediye benzeyen bir köpeği gördüğünde ise model ek resimlere maruz kalmadan kediyi köpekten ayırabilecektir çünkü kediler hakkında zaten sahip olduğu bilgileri aktarmıştır.

Transfer öğrenimi derin öğrenmede yaygın olarak kullanılmaktadır. Derin transfer öğreniminin ana uygulamalarından bazıları transfer öğrenimi doğal  dil işleme (NLP), bilgisayar görme ve konuşma tanımadır.
Transfer öğrenimi NLP, belge tanımlamasını ve metinsel verilerle ilgili diğer görevleri kolaylaştırmak için kullanılmaktadır.Aktivasyon fonksiyonları tanımı bu durumda gösterilmesi gerekmektedir.


Makine Öğreniminde Sinir Ağları Aktivasyon Fonksiyonları


Sinir ağlarında Aktivasyon fonksiyonları Derin öğrenmenin çok önemli bir oluşumudur. Aktivasyon fonksiyonları, derin öğrenme modelinin çıktısını en şekilde doğruluğunu kararlılığını, bir modelin hesaplama verimliliğini belirler. Bu yöntem ile iyi ölçekli bir sinir ağı oluşturabilmektedir. Bu sistemlerin fonksiyonları yakınsama yeteneği ile geliştirilebilir bir modelin bir duruma yakınsaması karar verebilme yeteneği ile bütünleşir. Sistemlerin ve modellerin bu  durum etkinleştirme fonksiyonları ile daha kararlı yapılar elde etmek münkündür. Şekil ’de  genel gösterimi verilmiştir.

Aktivasyon Fonksiyonu Geçerlemesi


Aktivasyon Fonksiyonuna Neden İhtiyaç Duyarız?


Yapay sinir ağlarına doğrusal olmayan gerçek hayat simülasyonuna tanıtmak için aktivasyon fonksiyonlarına ihtiyaç duyulmaktadır. Temel olarak basit bir yapay sinir ağında x girdiler, w ağırlıklar olarak tanımlanır ve ağın çıkışına aktarılan değere yani aktivasyon işlemi uygulanmaktadır. Daha sonra ise bu nihai çıkış ya da bir başka katmanın girişi olacak şekilde ayarlanmaktadır.
Çıkışa aktarılacak bu sinyali aktitive etmeden yapamayız sebebi ise aktivasyon fonksiyonu kullanılmayan bir sinir ağı sınırlı öğrenme gücüne sahip bir doğrusal bağlanım gibi davranacaktır. Ama biz sinir ağımızın doğrusal olmayan durumları da öğrenmesini istiyoruz. Çünkü sinir ağında öğrenmesi için görüntü, video yazı ve ses gibi karmaşık gerçek dünya bilgileri verilmektedir. 

Diğer taraftan basit bir doğrusal sinyalli fonksiyon olur bu da tek dereceli polinomlardan olacağı için gerçek dışı veriler elimizde olur, sistem için bu istenmemiştir.
Birden fazla dereceye sahip olan fonksiyonlara doğrusal olmayan fonksiyonlar denir. Yapay sinir ağları, evrensel fonksiyon yakınsayıcıları olarak tasarlanmış ve bu hedefte çalışması istenmektedir. Bu herhangi bir fonksiyonu hesaplanması, öğrenme özelliğine sahip olmaları gerektiği anlamına gelmektedir. Doğrusal olmayan aktivasyon fonksiyonları sayesinde ağların daha güçlü öğrenmesi sağlanabilir.

Aktivasyon Fonksiyonları


Aktivasyon fonksiyonları, bir sinir ağının çıktısı olarak belirlenen matematiksel denklemlerdir. İşlevi ise ağda ki her bir nörona bağlanır ve nöronları ayrı ayrı model ve sistemin tahmini ile birlikte tetiklemesini gerekli olup olmadığını belirler. Aktivasyon fonksiyonları ayrıca her nöronun çıkışını 1-0 veya -1-1 arasında normalleştirmeye yakınsamasını sağlar.
Aktivasyon fonksiyonları bir sistem de oluşan katmanların da bulunan nöronları  çıktısını sıçraması için veya  ileriye taşımak için etkinleştirmeyi işlevleri kullanılması esas alınmaktadır. Aktivasyon fonksiyonları skaler bir fonksiyon olma özelliği taşırlar. Bir başka deyişle aktivasyon fonksiyonları sinir ağında gizli nöronların ağın modelleme yeteneği olarak adlandırabilir. Aktivasyon fonksiyonlarını inceleyelim.

Basamak Fonksiyonu (Step Function)


İki değer alan bir fonksiyondur ve kuralı gereği ikili sınıflayıcı olarak kullanılır. Bu yüzden genellikle çıkış katmanlarında kullanılmaktadır. Gizli katmanlarda türevi öğrenme değeri temsil etmediği için kullanılması tavsiye edilmediği için gizli katmanlarda kullanılamaz.Bu fonksiyon Şekil’de gösterilmiştir.

Basamak Fonksiyonu

Doğrusal Fonksiyon (Linear Function)



Bir dizi aktivasyon değeri üretir ve bunlar basamak fonksiyonunda olduğu gibi ikili değerler değildir. Birkaç nöron birbirine bağlamayı sağlayabilmektedir. Fakat bu fonksiyonun dezavantajı türevinin sabit olması. Çünkü backpropagation sistemini kullanırken yani geri yayılım algoritmasın ile öğrenme işlemini nöronlar için gerçekleştiriliyordu. Bu algoritma türev alan bir sistemden oluşuyor. Bu sistemlerde geri yayılım algoritması kullanılırsa doğrusal fonksiyon sonuç vermemektedir. Fonksiyon Şekil’de gösterilmiştir.
 
Doğrusal Fonksiyon

Ayrıca tüm katmanlarda doğrusal fonksiyon kullanılırsa giriş katmanı ile çıkış katmanı arasında hep aynı doğrusal sonuca ulaşılır. Doğrusal fonksiyonların doğrusal bir şekilde birleşimi yine bir başka doğrusal fonksiyondur.Aktivasyon fonksiyonları hangi sistemlerde iyi bir şekilde kullanılması uzmanlık istemektedir.

Sigmoid Fonksiyonu


Doğada buluna bir çok olay doğrusal bir sistem değildir. Ve sigmoid bir fonksiyonun kombinasyonları da doğrusal olmaması bize iyi bir aktivasyon fonksiyonu olduğunu göstermektedir. Bu durumda sistemimizin katmanlarını sıraladığımızda ve ağırlıklarını hesapladığımızda aktivasyon fonksiyonları ile filtreden geçirebiliriz. Bu fonksiyon aşağıd da görülmektedir. 

Sigmoid fonksiyonların dezavantajları x-y değerleri çok yavaş tepki vermesi sistemimizde problemler doğrabilir, bu bölgelerde türev değerleri çok küçük olur ve 0’a yakınsar. Buna gradyanların kaybolması(vanishing gradient) denir. Bu durum öğrenme olayını performans düşüklüğüne sebep olmaktadır. Bu durum “0”  olursa o zaman öğrenmede mümkün olmaz. Yavaş bir öğrenme olayı gerçekleşeceğinden dolayı hatayı minimize eden optimizasyon algoritması lokal minimum değerlere takılabilme durumu oluşabilmektedir.
 

Sigmoid Fonksiyonu


Hiperbolik Tanjant Fonksiyonu


Sigmoid fonksiyonuna çok benzer bir yapıya sahiptir. Ancak fonksiyonun aralığı bu kez (-1,+1) olarak tanımlanmıştır. Sigmoid fonksiyonuna göre avantajı ise türevinin daha dik olmas yani daha çok değer alabilmesidir. Bu daha hızlı öğrenme ve sınıflama işlemileri daha geniş aralığa sahip olmasından dolayı daha verimli olabilmektedir. Bu fonksiyonun bazı problemlerde dezavantajı ise gradyanların ölmesi problemi oluşturabilmektedir.
 

Hiperbolik Tanjant Fonksiyonu


Relu Fonksiyonu


Bu fonksiyon ise doğada doğrusal olmayan bir fonksiyon olsa da sektörde iyi bir tahmin edici olarak bilinmektedir. Sebebi ise bu fonksiyon kombinasyonları ile herhangi başka bir fonksiyona da yakınsamak mümkündür. Bu durum ise Yapay Sinir Ağı katmanlarını sıralayabileceğimiz iyi bir seçenek gibi duruyor. 

Relu fonksiyonu [0,+∞] aralığında değer almaktadır. Fonksiyon durumu göz önüne alarak çok fazla nöronlu bir sinir ağı sistemi kurduğumuz varsayalım. Sigmoid ve Hiperbolik tanjant tüm nöronların aynı durumda aktif olmasını sağlarken, ağdaki bazı nöronların aktif olup, aktivasyon seyrek yani verimli bir hesaplama yükü olsun isteriz. Relu fonksiyonu ile bunu sağlayabilmektedir.
 
ReLU Fonksiyonu



Yapay zeka kullanan platformlar , bir çok alt yapıyı görüntü işlemeyi veya metinsel geribildirim argümanlarını , fonksyionlarını iç içe daha anlatacağım çok şey var yani, 

yazının devamı gelecek..

4 Temmuz 2021 Pazar

Yeşil enerjiyi destekleyen kripto para madenciliği CHİA Nedir ?


Chia Çiftliği Nasıl Yapılır?

Nisan ayında bildirdiğimiz gibi, yeni Chia kripto para birimi depolama endüstrisinde dalgalar yaratmaya başladı bile İle Chia anda canlı işlem , işler iyi bir şekilde olsa her zaman değil, daha da ilginç hale gelmiştir. Chia'nın toplam net alanı, ticaret başladığında 1 exabayttan daha az bir hızla genişledi ve şu anda yaklaşık 17 EiB'de oturuyor ve son zamanlarda günde yaklaşık 05. EiB'ye ölçekleniyor. Mevcut eğilimler devam ederse, üç haneli EiB seviyelerine doğru ilerliyor. En son kripto para vagonuna katılmak istiyorsanız, Chia madeni parası yetiştirmeye nasıl başlayacağınız ve bunun iyi bir fikir olup olmadığına dair bazı tavsiyeler burada.


Öncelikle, daha önce başka kripto para birimleriyle uğraştıysanız, Chia çok farklı bir canavardır. Temel blok zinciri konseptlerinden bazıları, daha önce olanlardan kökten farklı değil, ancak Chia madeni para, blok zincirini güvence altına almak için İş Kanıtı algoritmasını terk ediyor ve bunun yerine Mekan Kanıtı'nı – teknik olarak Zaman ve Mekan Kanıtı'nı uyguluyor, ancak ikincisi görünüyor. daha ilgili faktör. Göreve büyük miktarda işlem gücü ayırarak madeni para çıkarmak yerine, Chia sadece depolama parsellerine ihtiyaç duyuyor - ancak bu arazilerin doğru verilerle doldurulması gerekiyor.

Gerçek dünyadaki çiftçilikle yapılan benzetmeler kasıtlıdır. Önce bir tarlayı temizlemeniz gerekir (yani, depolama cihazlarınızda yer kaplayan dosyaları silmeniz), ardından tarlayı sürmeniz ve tohumlamanız (Chia için bir arsa hesaplamanız) ve ardından… bu ekinler Chia blokları olduğunda oldukça uzun zaman alabilir.

[Not: Aşağıdaki matematiği mevcut ağ alanına göre güncelledik. 6/03/2021]

Bir Chia jeton bloğunu çözme şansınız temelde toplam ağ alanı (netspace) içindeki payınıza eşittir. Şu anda, Chia'nın ağ alanı kabaca 16,55 EiB'de (Exbibytes — ikili SI birimi, yani 1 EiB, 2^60 bayta veya 1.152.921.504.606.846.976 bayt ondalık sayıya eşittir). Bu, Chia çizimlerine tam bir 10 TB (10 trilyon bayt) depolama alanı ayırırsanız, yüzde kısmını düşürürsek kazanma ihtimaliniz %0,0000052 veya %0,000000519 olur. Bunlar kulağa korkunç ihtimaller gibi gelebilir - öyleler! - ancak, her gün oluşturulan yaklaşık 4.608 Chia bloğu vardır (10 dakikada 32 blok veya blok başına 18.75 saniye hızı) ve bunlardan herhangi biri arsanızla eşleşebilir. Chia hesaplayıcıları

olsa da, basit matematik size kazanmanız için ortalama süreyi verebilir.Bunu tahmin etmeyi, matematiği kendiniz yapmaktan çok daha kolay hale getirin. Tamamen dolu bir 10 TB HDD, 91 standart Chia bloğunu (her biri 101.4 GiB) depolayabilir. Evet, tembel olmayın ve SI birimleri kesinlikle önemli olduğundan, tebibayt ile terabayt arasında dönüştürmeyi unutmayın. Her neyse, tek bir 10 TB HDD'deki 91 blok, yaklaşık her 418 günde bir blok kazanmalıdır. Aslında, kesin olmak gerekirse, her hafta bir blok kazanma şansı %1,66, bir ayda bir blok kazanma şansı %6,93 ve bir yılda bir blok kazanma şansı %58,24 olacaktır. Netspace artmaya devam ettikçe, şansınız düşecek ve hiçbir şey kazanmadan yıllarca yaşayabilirsiniz - özellikle de şimdilik tek başına çiftçilik yapacağınız için.

Her Chia planı, devasa, karmaşık bir Bingo kartı gibi olur. Arkasında çok fazla matematik var, ancak bu benzetme yeterli olmalı. Bir blok mücadelesi her geldiğinde, Chia ağı çeşitli kurallara göre bir kazanan belirler. Eğer planınız blokla eşleşir ve bloğu 'kazanırsa', blok ödülünü alırsınız (şu anda 2 XCH, Chia'nın jeton kısaltması). Bu blok ödülü, ilk 12 yıl boyunca her üç yılda bir azalacak şekilde ayarlanmıştır, bundan sonra blok ödülü statik ve sonsuz olacaktır . Resmi SSS ödül oranını 10 dakikada 64 XCH olarak listeler ve 0.125 XCH blok ödülü ile 10 dakikada 4 XCH olana kadar her üç yılda bir yarıya indirilir.

Chia çizimi için 512 GB'lık küçük bir tüketici SSD'si kullanmak çok kötü bir fikir.

Tabii şans da işin içine giriyor. Teorik olarak (oldukça düşük bir ihtimal olsa da) sadece birkaç arsaya sahip olmak ve hemen bir blok çözümü kazanmak mümkündür. Yüzlerce parsele sahip olmak ve kabul edilen tek bir çözüm olmadan aylarca devam etmek de mümkündür. Ortalamalar yasası gerektiğini zaman içinde havuz protokollerini deneyerek daha fazla kazanmanız ve kısa sürede kazanç sağlamanız içten bile değil . Şansınızı artırmak istiyorsanız daha fazla depolama alanına ve çok paraya mal olabilecek daha fazla Chia alanına ihtiyacınız olacak. Ayrıca, bir arsanın bir kez kazanması, tekrar kazanamayacağı anlamına gelmez, bu yüzden arsalarınızı kazandıktan sonra silmeyin.

Bu, geçtiğimiz on yılda yüzlerce popüler madeni parayla tekrarlandığını gördüğümüz standart kripto para silahlanma yarışı. Büyük madenciler - bu durumda çiftçiler - toplam Chia pastasından daha fazlasını istiyor ve daha fazla donanım satın almak ve kazanma şanslarını artırmak için acele ediyor. Bunun dışında, bu sefer mesele sadece daha fazla SSD veya HDD satın almak değil. Bu sefer çiftçilerin her birini parsellerle doldurmaları gerekiyor ve testlerimize göre bu ne basit bir iş ne de hızlı bir şekilde yapılabilecek bir şey. Yani iyi bir donanıma sahip olmanız gerekir yüksek bir işlemci ve ram performansı gereksinimine.

Chia Madeni Para Çiftçiliği için Donanım Gereksinimleri






Ethereum ile, gerekli GPU'lara, belki de en iyi madencilik GPU'larından bazılarına sahip olduğunuzda, tek yapmanız gereken onları bir PC'de çalıştırmak. Chia, da durum biraz karışık  tüm bu çiftçilik ve teorilerini bilmeniz ve nasıl çalıştığını anlamanız gerektirir ve bu zaman alır. Ne kadar zaman? Geçici olarak, çok hızlı bir Optane 905P SSD ile standart k=32 grafiği için yaklaşık altı veya yedi saat tipik süres  görünüyor (k=33'te iki kat daha uzun), ancak doğru donanımla aynı anda birden fazla çizim yapmak mümkün. Doğrudan sabit disk depolama alanına çizim yapabilirsiniz, ancak daha sonra iki kat daha uzun sürebilir ve yapabileceğiniz eşzamanlı çizim sayısı temelde bire düşer.

En iyi çözüm, bir veya iki büyük ve hızlı SSD'ye sahip olmaktır ve bol kapasiteye sahip, yüksek dayanıklılığa sahip kurumsal sınıf bir U.2 sürücüsü elde etmek kötü bir fikir değildir. Chia çizimi için 512 GB'lık küçük bir tüketici SSD'si kullanmak çok kötü bir fikirdir, çünkü yalnızca çabuk yıpranacağı için değil, aynı zamanda bir seferde en iyi ihtimalle iki çizim yapabileceği için de. Çizim için büyük SSD'yi kullanın, ardından bitmiş grafikleri büyük bir HDD'ye aktarın. Chia'nın uygulaması bunu yapmanıza izin verecek, ancak biraz titiz olabilir ve geçici depolama alanını aşmak gibi bir şeyler ters giderse, çizim çökecek ve tüm bu işi kaybedeceksiniz. Başka bir deyişle, çiziminizi fazla programlamayın. Madmax kullanmak işinize yarayabilir bunun için bir yazılım kiti hazırladım aşağıda okuyabilirsiniz.

260 GiB SSD'de birden çok kez tek bir çizim yapmayı başarmış olsak da, her 101.4 GiB planın 350 GiB'a kadar geçici depolama gerektirdiği varsayılmaktadır. Çizim işlemi sırasında ortalama yazma hızı değişir, bazen 100 MB/sn'nin üzerine çıkar, diğer zamanlarda sıfıra yaklaşabilir. Düştüğünde, bu genellikle daha fazla hesaplama işi ve hafızanın kullanıldığı anlamına gelir. Çizim ayrıca 4 GiB RAM gerektirir, bu nedenle yine yüksek kapasiteli bellek çubukları kurs için eşittir.

Sonuç olarak, hızlı SSD'ler için ana sınırlayıcı faktör depolama kapasitesi olacaktır. Testlerimize dayanarak, 2 TB SSD (1863 TiB) altı eşzamanlı grafiği işleyebilir. Bundan daha fazlasını yapmak istiyorsanız, ya daha yüksek kapasiteli bir SSD'ye ya da birden çok SSD'ye ihtiyacınız olacak. PC'nizin oluşturduğu her çizim ayrıca 4 GB belleğe ve iki CPU iş parçacığına ihtiyaç duyar ve ölçekleme sınırları var gibi görünüyor. (Çizimin ilk aşaması CPU'yu daha yoğun kullanma eğilimindedir ve ek CPU iş parçacıkları ayırarak zamanını kısaltabilirsiniz.)

Advertisement

Şu anda Chia çiftçiliğine girmek için çok fazla donanım satın almanızı önermediğimizi unutmayın.

Gereksinimlere dayalı olarak, biri daha hızlı çizim için (daha fazla eşzamanlı çizim için) ve diğeri daha yavaş çizim için olmak üzere iki örnek yapı verilmiştir. Şu anda Chia çiftçiliğine girmek için çok fazla donanım satın almanızı önermediğimizi unutmayın. Depolama maliyeti bile yüksek olabilir ve bir şansınız olsun istiyorsanız, buna çok ihtiyacınız var. Çeşitli çiftçilerden duyduklarımıza göre, yüzlerce terabaytlık Chia alanına sahip olmak bile düzenli blok vuruşlarıyla sonuçlanmaz.

Yaklaşık iki ay önce tahmin ettiğimiz gibi Çin'de yaşananlara göre HDD ve SSD fiyatları yükseliyor. Yapabileceğiniz en iyi şey, USB muhafazalarına ihtiyacınız olup olmayacağını hesaba katarak GB başına fiyata odaklanmaktır. Chia hakkında ilk yazdığımızda, HDD'ler 10 TB sürücüler için GB başına yaklaşık 0,02 dolardan başlıyordu. Artık GB başına 0,03 ABD dolarına kadar çıktık ve daha yüksek kapasiteli sürücüler GB başına 0,04 ABD dolarına veya daha fazlasına gidebilir. 14 TB veya daha büyük disklerle gitmek cazip görünse de, önemli ölçüde yüksek fiyatlar bunu kötü bir seçim haline getiriyor. Aslında, mütevazı 5 TB USB HDD'ler, genellikle hala yaklaşık 100 ABD Doları (GB başına 0,20 ABD Doları) karşılığında mevcut olduklarından, şu anda tatlı nokta olma eğilimindedir.

Sanal Makinelerde Tohum Üretin 

Tabii Benim gibi, aklınızda sanal makinelerde üretim yapmak ve kazanmak geliyorsa işte tam olduğunuz yerdesiniz nitekim bir chia dan kazanma ihtimali düşük olan plotlamayı saatlerce yapıp soğuk depolamada tutmak yerine birden fazla sunucularda üretim yaparak eşit bir şekilde sıcak depolama alanlarına dağıtın ücretsiz depolama alanı sunan web siteler var oraları da kullanabilirsiniz. örn.
 

Chia Network söylemine ve bazı havuz araçlarına göre, 5sn de bir plot tarama hızını aşmamanız gerekiyor yoksa kazanç yakalayamazsınız yani blockchain işlemine tabi tutulur bu sırada yükselen depolama alanınız tb larca veriyle dolduğunda bu süre uzar kontrol etmek ve block ödülü kazanmak için bu süreyi 5sn tutuklarını söyleyen chia yönetiminden kurucu aynı zamanda eski bit torent ceo'su olan Bram Cohen bunu çok depresif tuttuklarını kabul ediyorlar.

Yukarıdaki sıcak depolama önerilerimiz için test yaptık yakın zamanda paylaşacağız bu teste göre sıcak depolama alanlarında chia tarlaları tutmanın ne gibi avantajı veya dezavantajı olduğunu buradan tahmin edebilirsiniz 5sn de bir tarama hızı oldukça yüksek bir sayı çünkü soğuk depolamada tarama hızları ms hatta bazı cihazlarda ns seviyelerinde fakat gelgelim uzak bulut depolama teknolojileri bu süreyi çokça yükseltiyorlar uzak sisteme mount etme ve kullanım süreleri dezavantaj olabiliyor. 

Otomatik Chia Plotlayıcı.

Uzak sunucuda tohum yani chia plotlama yapmak mekaşetli bir iş olabilir bunu sizin yerinize otomatik yapan bir script yazdım bu scripti kullanarak linux/ubuntu centos sisrtemlerde plotlama yapmak için zamaan kazanın ayarları güncelleyin ve talimatları uygulayarak depolama hizmetlerinizide satın aldığınız anda başlayın unutmayın sadece yüksek verimli olan sunucular kullanmanızı tavsiye ederim. Yukardaki anlattıklarımıza göre iyi bir kazanç için tohum üretimini asla durdurmayın ve pool yani havuz araçlarını araştırmak isteyebilirsiniz. 


Bu adresten chia otomatik plotlayıcı ile madmax* kurulumu yapın sadece linux cihazlar için otomatik kurucu scriptir. kurulum talimatı için aşağıdaki linke tıklayın. 




Not: Bu sayfada yazılan hiç bir ibare yatırım tavsiyesi veya buna benzer bir şey değildir. Teknoloji web bloğumda sadece bilgi vermek veya ilgilenenler için ücretsiz yazılım desteği vermekteyim bu yazılımlar için herhangi bir maddi manevi zararlardan sorumluluk kabul etmediğimi açıkca beyan ederim. 

18 Temmuz 2014 Cuma

Megapixel (MP) Nedir ? Kamera seçerken neye dikkat edilmeli ?

Piyasada telefon alırken dikkat ettiğimiz şeylerden biride kameradır kaç mp  çekiyor ne kadar kaliteli ? gibi aklımızda birkaç soru vardır , bende buna değinmek istiyorum.

Kesinlikle burada  megapixel (mp) önemli değil önemli olan  kamerayı yönettiğiniz yazılım ve kameradaki sensör donanımı  peki mp ne işimize yarar.?

Mp görüntü boyutudur açıklamak gerirse eğer  bir fotoğraf hayal edin bu fotoğrafta 1 milyon yan yana dizilmiş kareler var bu kareler bir fotoğraf da ki ayrıntıyı görmenizi sağlar fotoğrafı büyüttüğünüz de alandaki kare sayısı azalır ve kareler büyür büyüdükçe görüntüde bulanık olmaya başlar nedeni de karelerin  azalması yani görüntü boyutu burdan geliyor 10 mp ve 5 mp aynı kalitede bir fotoğrafı orijinal boyutuyla bir kağıda yazdıralım hangisi daha ayrıntılı olur sizce boyutu büyük olan değil mi ?

Kareler bir fotoğrafı netliğini veya renk kalitesini belirtmez kareler fotoğraf boyutunu fotoğrafa yakınlaştığınızda ki ayrıntıyı belirler 

Örneklerle açıklarsak 100 metre uzaktaki adamı kameradan 10mp 5mp şeklinde ayarlayıp çekiniz ve her iki fotoğrafı incelediğimizde 5 mp fotoğrafta adamın daha bulanık oldugunu görürsünüz yani 10mp de çektiğinizde adamı görüntüdeki 100 kare ile incelersiniz 5mp de ise 50 kare tıpkı yap boz gibi 

Mp değeri neyi ifade eder ?

megapixel aslında mega ve pixel kelimelerinin birleşmesiyle meydana gelmiştir mega kelimesi büyüklüğü ifade eder pixel ise kareleri 





6 Haziran 2014 Cuma

Nikola TESLA |Dünyayı Degiştiren Adam


1910'ların başında bir gün cebinde ufak bir cihaz olan orta yaşlı bir adam New York'un Wall Street'inde, tamamlanmamış, çelik konstrüksiyon halinde bulunan bir inşaata girdi. Cihazını çelik kirişlerden birine bağladı. Bir süre bir takım ayarlar yaptı.

02 Haziran 2014, 16:17Cihaz çalıştıktan az sonra çelik yapı gıcırdamaya ve sallanmaya başladı. Sallantı öyle bir hal almıştı ki, inşaat işçileri panik içinde en alt kata koşuşturdular. Az sonra polis de gelince, adam cihazı cebine koydu ve binadan ayrıldı. Görgü tanıkları, sallantının on dakika daha sürmüş olması halinde binanın çökeceğini söylüyorlardı.

Aynı adamın 15 yıl önce yanlışlıkla New York'taki bir çok bloğu içine alan bir mahalleyi de salladığı da rivayet edilir. Hatta o zaman polisin, laboratuarına baskın yaptığında bir nevi osilatör olarak adlandırılabilecek cihazın bu kişi tarafından balyozla kırıldığı ve polise teslim edilmediği iddia edilirdi.

İnsanlığı ilgilendiren çok önemli buluşlara imza attığı halde ismi bilim dünyası tarafından adeta aforoz edilerek hakkı yenilecek olan bu kişinin adı Nikola Tesla'dır. Bilimsel literatürde, Manyetik Rezonanslı "MR" cihazlarının manyetik alan gücünü gösteren güç terimi Tesla olarak ifade edilirken ismi anılan bu bilim adamının imzasını attığı buluşların sayısının 800 adet patent altında olduğunu söylersek Tesla'nın bilim dünyasındaki gösterilmeyen, bir anlamda yok sayılan yerini vurgulamış oluruz.

1856'da Avusturya-Macaristan vatandaşı olarak Hırvatistan'da doğan Tesla, Graz'daki Bilim Akademisi'nde fizik, mekanik ve matematik okudu. 1884 yılında ABD'ye göç etti ve Thomas Edison'un yanında çalışmaya başladı. Edison, o sıralar doğru akım üzerinde çalışıyordu. Ancak doğru akımın pratikte elektrik enerjisi olarak evlerde ve sanayide kullanılmasının teknik olarak uygun olmaması, Tesla'yı alternatif akım gibi başka bir elektrik gücünü araştırmaya itti. Geliştirdiği transformatörler ve jeneratörler ile bunu üretim iletişim hatlarıyla sevk etmeyi başardı. Bu enerjinin kullanımı için de elektrik motorları icat etti. Bundan sonra Nikola Tesla'ın birbirinden ilginç buluş ve araştırmaları ard arda sürdü.

Günümüzdeki neon ampullerinin benzeri floresan ampullerini buldu ve Niagara Şelalesi üzerinde kurulan dünyanın ilk hidroelektrik santralinin üzerindeki imza yine "Tesla" idi. Otomobillerde kullanılan ilk takometreyi icat etti. Westinghouse firması ile anlaşıp elektrik üretimine başladı. Sanayici J.P. Morgan'ın desteği ile, bir anlamda bedava enerji sayılabilecek ve yeryüzü çevresindeki iyonosfer ve ether tabakalarından elde edilebilecek enerji ile bütün dünyaya, kablosuz yayın ile telefon ve telgraf hizmeti verecek olan sistemi kurdu. Ancak sonradan enerjinin bedava alınacağı ve kendisinin diğer enerji kaynaklarının para etmeyeceğini düşünen Morgan, Tesla'dan desteğini çekti ve Tesla hem mali sıkıntıya girdi, hem de bütün dünyada "çatlak" olarak kabul edilmeye başlandı. Halbuki Marconi tarafından icat edildiği söylenen radyoyu da Tesla, Marconi'den on yıl önce tescil etmiş ve patentini almıştı. Nitekim bu buluşu öldüğü 1943 yılında ABD Yüksek Mahkemesi tarafından kabul edildi.

Tesla, manyetik dalga üzerindeki çalışmalarını öyle boyutlara getirdi ki, 1899'da Colorado Springs'deki laboratuarında elde ettiği elektrik enerjisini havadan dünyanın öbür ucuna gönderdi, dalgalar geri gelince bunlara bir miktar daha enerji yükleyerek tekrar gönderdi ve sonuçta 40 metrelik dev bir şimşek elde edildi. Bu şimşeğin gürültüsü 35 kilometre öteden işitilmişti. Yine Tesla, Birinci Dünya Savaşı esnasında Alman Denizaltıları'nın yerini saptamak için radar dalgalarını bulmuşsa da zamanın Amerikan Deniz Kuvvetleri'ne bu öneri saçma geldiği için, radar cihazı 25 yıl gecikmeli olarak bulundu. Tesla'nın 1930'da icat ettiği söylenen ve 200 kilometre ötedeki bir uçağı düşürebilecek elektromanyetik şua gönderen top konusu ve bununla ilgili çalışmalar, acaba 1943'de Tesla ölünce evini basan FBI'ın Tesla'nın bütün evraklarına el koyması sonucu bugüne kadar hangi aşamada değerlendirildi, bütün bunlar da birer muamma. Yine, halen ABD mercilerince "çok gizli doküman" olarak saklandığı ileri sürülen belgelerin çok azının sonradan ailesine teslim edilmesi de bu muammaları derinleştiriyor.

ÖLDÜRÜCÜ OLMAYAN SİLAHLAR

"Körfez Savaşı sürerken CNN Televizyonu'nun canlı yayını esnasında oluşan bir sorun, konuyla ilgilenen uzmanları uzun bir süre meşgul etmişti. Bir CNN muhabiri Irak'ta beton bir sığınağın önünde çekim yaparken, atom bombasına bile dayanabilecek bir yapıda olan sığınağın üzerinde 30 saniye kadar, kenarlarında garip cihazlar olan bir Amerikan helikopteri asılı kaldı. Yayında helikopterin motor gürültüsünden başka hiçbir şey duyulmuyordu. Aniden hava, ses ve titreşim geçirmeyen Alman malı sığınağın kapısı açıldı ve ellerini havaya kaldırmış olan Iraklı askerler suratlarında gülümseme ifadesiyle gözüktü." Daha sonra yine birtakım uzmanlarca yapılan yorum, bu helikopterin ELF-maximum miktarda düşük frekanslı, mobil HAARP Teknolojisi teçhizli olduğuydu.

Yıllardır, "Pax Americana"yı (ABD'nin günümüzde dünya etrafında uyguladığı, içine askeri güç gösterisinin de dahil olduğu sisteme verilen ad) dünyaya yerleştirmeye çalışan ABD'nin bu iş için nükleer silahların da ötesinde daha güçlü sistemler araştırdığı söyleniyor. Bunlardan en önemlisi olarak nitelendirilen HAARP Projesi'nin (High Frequency Active Auroral Resarch Project-Aktif Yüksek Frekanslı Aurora Araştırma Projesi) ABD Deniz ve Hava Kuvvetleri'nin Kuzey Alaska'da Fairbanks Üniversitesi'nin katkılarıyla sürdürüldüğü iddia ediliyor. Öldürücü Olmayan Silahlar serisinin en iddialı ve etkin sistemlerinden olabilecek bu projeyle, ELF (Yüksek frekans) ışınları, iddia edildiği üzere 100 Gigawat (100 milyar Watt) civarında toplam bir gücü geniş alanlı anten ve vericilerle gönderilebilmektedir. Alaska'daki Anchorage'in kuzey doğusunda bulunan bu gizli tesis, Kuzey Kutbu'na yakın olması nedeniyle dünyanın cekim alanının en yoğun olduğu yerlerden biri ve iyonosfer tabakasına elektrik yükünü yüksek yoğunlukta yayabilme özelliğine sahiptir. Ayrıca burada HAARP jeneratörlerinin gereksinimini karşılayacak doğalgaz da petrol kuyularının yan ürünü olarak bol miktarda elde edilebilmektedir. İnsanlık tarafından yapılmış en güçlü "Yüksek Frekans Vericisi" olan HAARP'ın 200 kilometre yüksekliğe, İyonosferin "F" tabakasına gönderdiği elektrik yükü İyonosferde absorbe edildikten sonra ELF (çok düşük frekanslı) dalgalar olarak geriye döndüğünde bu elektromanyetik dalgaların oluşturduğu alanların, canlı sistemler üzerindeki etkilerinin son yıllarda özellikle askeri ve bilimsel çevrelerce değerlendirildiği de söylenmektedir. Alaska'daki bu tesisin benzerinin bazı eski Sovyet OTH-Radar üslerinde, Norveç'deki Trömse (Alman Max-Planc Enstitüsü'nce işletilmekte) ve Porto Rico'da da olduğu iddia edilmektedir. Dünyada 640 kadar HAARP anteni bulunduğu da tahmin edilmektedir.

Nikola Tesla'nın 100 yıl önce bulduğu prensiplerle çalışan bu silah sistemleri bir çok ilginç alana uyarlanabiliyor. Bundan yüz yıl kadar önce koca bir mahalleyi sallayabilen, uzaktan kumandalı taşıt aracı geliştirmiş olan veya atmosferden elde ettiği enerjiyle bedava cihaz çalıştırabilen Tesla'nın buluşları, bugün eğer tek bir gücün elinde olursa ve daha da geliştirilip yaygınlaştırıldıklarında, bir kölelik devrini başlatabilecektir.

SİLAHLAR VE ETKİLERİ

Tesla prensipleri doğrultusunda geliştirilen araçların şu özellikleri olabileceği ve bunlarla şu olanaklar sağlanabileceği söyleniyor;

Ultra Kısa Dalga ve ELF dalgalı cihazların 2.000 kilometre öteden insanları etkileyebileceği, mide bulantısı ve kusmaya yol açacağı ve yön tayini duygularını etkileyeceği söyleniyor.

Bunların yaydıkları elektromanyetik dalgaların KİS (Kitle İmha Silahları) kullanmadan düşman elektronik sistemlerini felç edebileceği iddia ediliyor.

Yine, Tesla'nın prensibiyle, Amerikalı Albay T.E. Bearden, Fizikçi Sidney Hurwitz ve G. Obelensky buldukları bir cihazla 300 metre yarıçapındaki bir alanda bulunan metallerin yoğunluklarını ciddi ölçülerde arttırabilmişlerdir. Böylelikle düşman mühimmatının yoğunluğu değiştirilip birkaç misli ağırlaştırmak ve mühimmat hedefe gelmeden patlatmak olası olabilmektedir. Bu konu füze savar sistemleri için son derece önemli olacaktır.

İyonosfer tabakası, kendi haberleşme sistemi bozulmadan, karşısındakinin haberleşmesini, hatta küresel haberleşmeyi bozacak şekilde etkilenebilmektedir.

MR cihazı kullanır gibi yerkürenin kilometrelerce altının röntgenini çekmek ve yer altı askeri tesisler ile doğal kaynakları saptamak olasıdır.

İnsanların bilinçlerinin etkilenmesi mümkün olabilecektir.

Küresel meteorolojik değişiklikler yaratmak mümkün olabilecektir.

Haberleşme ve casus uyduların imhası mümkün olabilecektir

Dünyanın çok uzak köşelerindeki TV, radyo ve haberleşme sistemlerini etkilemek mümkün olabilecektir.

Bilgisayar sistemleri, disketler ve donanımların uzaktan tahribi olası olabilecektir.

Biyolojik olarak, hayvanların iletişim, üreme ve oryantasyon mekanizmalarının etkilenmesi, canlıların temel DNA kopyalanmasının etkilenmesi mümkün olabilecektir.

EISCAT denilen birbiriyle bağlantılı hale getirilebilen bu çeşit HAARP istasyonlarının birbirleriye bağlantılı ve bağımsız çalışabilmeleri ve bütün bunların kontrolü olasıdır. Bu birlikte çalışabilir olmanın insanlık için sonuç ve boyutları da düşündürücüdür. Bu düşündürücülük, söz konusu elektromanyetik dalgaların spesifik amaçlara yönelik olarak yalnız anten vasıtasıyla değil, uydular ve kablo ağıyla da gönderilmesiyle önem kazanmaktadır. Ama bireyler üzerinde olası olan ve yukarıda değindiğimiz fiziki ve ruhsal etkilerini sağlamada günümüzde çok önemli bir enstrüman daha vardır ki tehlikenin boyutları bu noktada akıl almaz ölçülere ulaşmaktadır. O da hemen hepimizin taşıdığı cep telefonlarıdır. Tesla'nın buluşlarının kötü niyetliler tarafından bireylere intikalinin söz konusu olması, insanlığı gelecekte başka boyutlarda tehdit edecektir. Bu yolda en önemli araç yine bütün dünyada kurulan sayısı yüz binleri geçen cep telefonu anten vericileridir.

TESLA DEPREMLERİ Mİ?

Nikola Tesla'nın, insanlığın yararına olduğunu savunduğu en önemli iddiası, önceden deprem yaratarak, kontrollü olarak daha büyük olası depremlerin enerjisini boşaltmaktı. Bu noktada, dünyada olmaması gereken yerlerde meydana gelmiş olan bazı depremlerin bu konuda yapılan çalışmalarla bir ilişkisi olup olmadığı sorusu akla gelmektedir. Bu bağlamda,

Deprem kuşağında olmayan Almanya, Hollanda, Belçika üçgeninde 13 Nisan'da meydana gelen deprem bir HAARP denemesini akla getirmektedir.

2001 Haziran'ında G-8 toplantısı yapılan İtalya'da toplantıyla aynı anda Etna Yanardağı faaliyete geçti.

Çin'in Tangşan bölgesinde, ABD'nin bağımsızlık ilanından tam 200 yıl sonra aynı ayda, meydana gelen depremde 250.000 kişi öldü.

1995'de Tokyo metrosundaki Sarin gazı terörünü yaratan Aum Şinrikyo Tarikatı'nın, geleceğe dönük ve kainatın sonunu getirecek felaket silahları üzerinde çalıştığı ve Tesla silahlarıyla da ilgilendikleri iddia edilmektedir. Aum'un lideri Şoko Aşahara'nın, 17 Ocak 1995'de meydana gelen Kobe depremini dokuz gün evvel tahmin etmiş olduğu iddia edilmektedir. Yine bu depremde şehrin bir kobay gibi kullanılıp, dünyanın içindeki enerjinin Tesla'nın elektromanyetik dalgalarıyla açığa çıkarıldığı da bu tarikat üyelerince söylenmişti.

28 Mayıs 1943'de Batı Avustralya'nın o güne kadar hiç deprem olmayan Leonora-Laverton bölgesinde 3.7 Richter ölçeğinde bir deprem oldu. Önce bunun bir meteorit çarpması sonucu oluştuğu düşünüldüyse de sonra böyle bir bulgu kanıtlanmadı. Görgü tanıkları depremden biraz sonra gökte iki saat kadar süren portakal ve gümüş rengi bir aydınlanmanın oluştuğunu söylediler. Sonradan, aniden bir elektrik düğmesine basılmış gibi bu ışık kayboldu. Depremin merkez üssünün hemen yakınında, bir süre evvel, bir kısım Aum tarikatı mensubunun bir çiftlik satın almaları ve bazı nükleer fizikçileri de buraya getirmiş olmaları acaba bir rastlantı mıydı sorusu bugün hala cevaplanabilmiş değil.

Yine Batı Avustralya'nın hiç deprem olmayan Güney Doğu Kum Çölü'nde, 1970'de 3 Richter ölçeğinde 173 civarında deprem oldu. Bu depremlerin hepsinin merkez üsleri birbirinden tam olarak 10'ar kilometre uzaklıkta ve her sekiz deprem hattı da 50-70 kilometre uzunluğundaydı. Bu durum 1995'e kadar 246 defa sürdü. Bunların Avustralya'nın denediği Elektromanyetik Dalga silahlarıyla oluştuğu iddia edilmektedir. Bütün bu ve benzeri depremlerin, Sovyetler Birliği Komünist Partisi Genel Sekreteri Nikita Kruşçev'in bundan 40 yıl önce belirttiği, "Dünyamızın çok daha korkunç ve tahrip edici nitelikte silahlarla yüz yüze geleceği" söylemi ile ilgili midir diye sormadan edemiyoruz.

Yine 1943'de Nikola Tesla'nın ölümünden hemen sonra FBI tarafından el konulan ve "çok gizli" olarak nitelendirilip kilit altına alınan belgeler nedir, bunlardan kim yararlanıyor soruları da akılları meşgul etmeye devam ediyor.

Esp32 İle TV Tuner Radio Alıcısı

 Yıllar evvel aklıma gelen bir proje rf sinyallere olan merakım giderek artıyor ve şimdiki pcb üretimimde rf antenler konusuna bir tık daha ...