Bir .txt dosyası içerisindeki URL listesi tamamen kaydetmem gerekiyor. Bunun için cURL kullanmaya karar verdim. xargs curl < url-list.txt , komutu ile bütün listedki URL adreslerindeki html dosyalarının içeriklerini terminal üzerinden gösterebiliyorum. curl -o myFile.html www.example.com , komutu ile de sadece 1 tane URL adresindeki dosyayı kaydedebiliyorum.

Bütün bu URL'lerin içeriklerini tek bir seferde nasıl kaydedebilirim?

soruldu: 01 Tem '14, 07:57

Timur%20Aykut%20YILDIRIM's gravatar image

Timur Aykut YILDIRIM
371325047
cevap kabul oranı: 14%

değiştirildi: 03 Tem '14, 06:44


Şöyle bir bash script'i yazdım:

#!/bin/bash
file="url-list.txt"

while read line
do 
  outfile=$(echo $line | awk 'BEGIN { FS = "/" } ; {print $NF}')
  curl -o "$outfile.html" "$line"
done < "$file"
permanent link

cevaplandı: 03 Tem '14, 06:43

Timur%20Aykut%20YILDIRIM's gravatar image

Timur Aykut YILDIRIM
371325047
cevap kabul oranı: 14%

değiştirildi: 03 Tem '14, 06:44

Cevabınız
toggle preview

Bu soruyu takip et

E-Posta üzerinden:

Üyelik girişi yaptıktan sonra abonelik işlemlerini yapabilirsiniz

RSS üzerinden:

Cevaplar

Cevaplar ve Yorumlar

Yazı Formatlama

  • *italic* ya da _italic_
  • **bold** ya da __bold__
  • link:[text](http://url.com/ "başlık")
  • resim?![alt text](/path/img.jpg "başlık")
  • liste: 1. Foo 2. Bar
  • temel HTML etiketleri de kullanılabilir

Bu sorunun etiketleri:

×3

Soruldu: 01 Tem '14, 07:57

Görüntüleme: 328 kez

Son güncelleme: 03 Tem '14, 06:44

powered by BitNami OSQA