Son Depremler RSS

0
auselen
Boğaziçi Üniversitesi, Kandilli Rasathanesi, Ulusal Deprem İzleme Merkezi’nin meşhur son depremler sayfasını bilirsiniz. Deprem izlemesi olarak harika bir iş yapan UDİM'in, bu bilgileri yayınlama konusunda o kadar becerikli olduğunu malesef düşünmüyorum (umarım farketmediğim bir servisleri yoktur :) ). Web 2.0 döneminde bu verilere sanırım biraz daha kolay ulaşabilmeliyiz, bu yüzden UDİM işe el atana kadar bu verileri RSS biçiminde sunan küçük bir servis hazırladım: http://feeds2.feedburner.com/sondepremler.

Servisi feedburner üzerinden sunuyorum çünkü bu servisin sağlıklı çalışması için oldukça büyük kolaylık. Öte yandan feedburner beslemeleri 30 dakikada bir güncellediğini belirtiyor, yani ortalama olarak güncel bir deprem bilgisini UDİM yayınladıktan 15 dakika sonra görebilmelisiniz.

Deprem bilgilerinin RSS ile nasıl yayınlandığını araştırdığımda bu konu hakkında kesin bir biçim olmadığını gördüm, genel olarak yapılan georss taglarından faydalanmak. Ben de bu yolu izlemeye karar verdim

Serviste sunulan deprem bilgilerinin her biri için pubDate, georss:point, georss:elev, georss:radius, georss:featurename alanları bulunmakta. Bunlar sırasıyla UDİM'in son sayfasındaki bilgilere dayanarak depremin oluş tarihi (RFC 2822 biçiminde), konumu (enlem + boylam), derinliği, büyüklüğü ve yeri.

elev, radius ve featurename alanları deprem bilgisi ile kullanıma pek uygun olmasalar da, bu şekilde kullananlar da yok değil. Daha iyi bir çözüm üretemediğim için bunları kullanmayı uygun gördüm. Title, link, description gibi alanların biçimi ve amacı hakkında kesin bir bilgi veremesem de, diğer alanların UDİM'in verdiği kadarıyla bir depremi tanımlamaya yeteceğini düşünüyorum. Yani eğer bilgileri kullanmak isterseniz, güvenebileceğiniz konu ilk başta belirttiğim beş alanın daima servis için de bulunacağıdır, ya da herhangi bir değişiklik olduğu takdir de burada bilgilendirme yapmalıyım demektir.

Sistem basitçe feedburner'ın benim kendi sitemde barındırdığım depremler sayfasını ayrıştıran (parse eden) bir php betiğine bağlanıp bilgileri kendi bünyesinde saklamasından oluşuyor.

Umarım eve gidipte bilgisayarla uğraşayım dediğiniz anlardan birinde kendinize küçük bir mashup yaparken kullanabileceğiniz yararlı bir servis olur.

Görüşler

0
dtemarti
Lokasyon bilgilerine göre (enlem ve boylam belli) google map linki koysan daha iyi olurdu. Bu şekilde RSS okumaktansa orjinal listeye bakmak gözün taraması açısından daha rahat. Ne dersin?
0
auselen
Belirtmeye calistigim gibi; title, link, description alanlarinin icerikleri ve bicimleri hakkinda kesin bir fikrim yok. Tavsiyenizi degerlendirecegim.

Bunun disinda amacim deprem bilgilerine xml olarak erisilmesini saglamaktan ibaret.
0
seemedlull
auselen şahane bir iş yapıp, feed'i georss olarak sunduğu için şöyle şeyler yapılabiliyor kolayca:

http://maps.google.com/maps?q=http://feeds2.feedburner.com/sondepremler

0
seemedlull
http://maps.google.com/maps?q=http://feeds2.feedburner.com/sondepremler
0
conan
OO cok guzel bir calisma olmus. Eline saglik :)

Not: Haberdeki ilk linki duzeltebilir miyiz?
0
auselen
http://feeds.ceviktavsan.com/sondepremler

boyle bir yonlendirme daha koydum.
0
devadam
Ben de bu yazıyı okumadan az önce rasathaneye rss servisi sunmalarının güzel olacağını bir maille belirtmiştim güzel çalışma olmuş teşekkürler
Görüş belirtmek için giriş yapın...

İlgili Yazılar

Bir Robot Uzmanından Programcılara Tavsiyeler

FZ

Vakti zamanında Paul Graham ile Viaweb'in geliştirmiş ve daha pek çok proje ile uğraşmış Trevor Blackwell, bu aralar adından geliştirdiği sıradışı Dexter isimli robot [video] ile bahsettiriyor. Dinamik, gerçek zamanlı olarak ağırlık merkezini hesaplayıp yürüyen yani fiziksel olarak insana çok benzer şekilde hareket eden bu iki ayaklı robot epey ses getireceğe benzer.

Blackwell'in web sitesinde programcılara ve geleceğin "hacker"larına tavsiyelerden bir kısmını Türkçeye çevirip paylaşalım istedik:

Wikipedia'yı Kim Kurcalıyor Öğrenmek İster Misiniz?

FZ

CalTech öğrencilerinden Virgil Griffith'in geliştirdiği Wikipedia Scanner aracı ile Wikipedia'daki isimsiz düzenlemelerin hangi kurumlardan veya şirketlerden geldiğini görmek mümkün.

Paket Filtrenize Ne Kadar Güveniyorsunuz?

anonim

Wireshark (Ethereal), Snort veya aynı 'raw socket'leri kullanan bir packet 'sniffer' kullandığınızı düşünelim. Acaba gerçekten veriler güvenilir mi? Ne kadar güvenilir? Bu yazının amacı bu tip yazılımların nasıl aldatılabileceğini göstermektir:

Yazının devamı...

Sony PSP 2.0 Kırıldı!

Soulblighter

Sony'nin taşınabilir oyun konsolu PSP'nin 2.0 sürümündeki firmware'de bulunan hata, duvar kağıdı olarak ayarlanan resimlerin içine gömülen kodların çalıştırılmasını sağlıyor. Böylece bir resim içine gömülen kodlar, resim duvar kağıdı olarak ayarlandığında, çalıştırılıyor.

İki kültür: Lisp ve Un*x

misafir

Bu yazıda epey bir spekülasyon yapacağım. Bazı olguları es geçersem ya da hafifçe saptırırsam, hemen sinirlenmeyin. Sakince yazıyı bitirmeyi bekleyin. Amacım "flame war" çıkarmak değil, bazı gözlemlerimi paylaşmak.