Java ile basit bir program yazmak istiyorum. Örnek verirsem bir film sitesinin tüm sayfalarında gezip o filmlerin isimlerini ve video linklerini bir txt dosyasınada toplamak istiyorum. Tüm sayfalar elimde var gibi orada sorun yok. Ancak filmlerin bulunduğu sayfayı açtığımda bir javascript kodu çalıştıktan sonra video urli üretiliyor anladığım kadarıyla. Bu sebepten benim fazladan bir request daha göndermem gerekiyor her bir sayfa için.

Aklıma gelen başka bir örnek de uygulama da şöyle olabilir bazı sitelerde atıyorum bir kullanıcının tüm videolarının ya da resimlerini profilinde çekeceğiz ancak sayfa aşağıya indikteçe autoload yapıyor. Bu durumda tüm veriler gelene kadar autoload requesti gönderdikten sonra verileri çekmek gerekir.

Siteye HTTP request gönderip kaynak kodundan direk bilgi almışlığım var ancak bu tarz durumlar ile daha önce bir tecrübem yok.

Yaptığım google aramasında bir sonuca ulaşamadım. Sanırım ne arayacağımı bilmiyorum. Umarım sorunu açıkça anlatabilmişimdir.

Teşekkürler.

soruldu: 16 Oca '15, 10:47

araknafobia's gravatar image

araknafobia
26346
cevap kabul oranı: 0%

Bu soruya ilk cevap veren sen ol!
toggle preview

Bu soruyu takip et

E-Posta üzerinden:

Üyelik girişi yaptıktan sonra abonelik işlemlerini yapabilirsiniz

RSS üzerinden:

Cevaplar

Cevaplar ve Yorumlar

Yazı Formatlama

  • *italic* ya da _italic_
  • **bold** ya da __bold__
  • link:[text](http://url.com/ "başlık")
  • resim?![alt text](/path/img.jpg "başlık")
  • liste: 1. Foo 2. Bar
  • temel HTML etiketleri de kullanılabilir

Bu sorunun etiketleri:

×137
×6

Soruldu: 16 Oca '15, 10:47

Görüntüleme: 294 kez

Son güncelleme: 16 Oca '15, 10:47

powered by BitNami OSQA