論搜尋引擎以程式在網路上自動抓取資料時可能面臨之法律問題及其解決之道

廖先志、陳鍾誠 Hsien-Jyh Liao, Yi-Hsuan Lin

詳細資料

標題 論搜尋引擎以程式在網路上自動抓取資料時可能面臨之法律問題及其解決之道
作者 廖先志、陳鍾誠 Hsien-Jyh Liao, Yi-Hsuan Lin
學門領域
關鍵詞 搜尋引擎;Crawler程式;侵權行為;著作權法
摘要 搜尋引擎必須以crawler程式(又稱spider程式)來自動抓取網頁並建立索引,如果crawler程式僅僅循著網頁所提供的超連結來搜尋網頁並抓取內容,稱為一般性的crawler程式;如果不論網頁是否提供超連結,crawler程式會自行計算並找到網頁的所有內容並加以抓取,此種crawler則稱為深度crawler。而crawler抓取網頁內容的步驟可以細分為「取得資料」及「儲存並建立索引」二大步驟。在「取得資料」階段中,深度crawler雖然是自行透過演算法來取得網頁的所有內容,但本文認為仍不至於構成非法存取(unauthorized access)。此外,不論是一般的crawler或是深度crawler,如果取得網頁內容時會耗費網站資源而干擾網站的正常運作,就可能構成如美國eBay案中討論的財產侵害(trespass to chattel)。在「儲存並建立索引」階段中,原則上應該不會侵害網頁擁有者之重製權,然而、有些搜尋引擎 (例如 Google) 將其取得的內容以「庫存頁面」(cache)的方式允許使用者存取,此時即有爭議發生,但本文以為,由於搜尋引擎的主要目的是在使網路使用者更容易接觸網頁,所以此種「重製」與「散布」行為原則上應有著作權法「合理使用」原則的適用,故不會構成侵害著作權,但仍應考慮搜尋引擎與原網站之間是否處於競爭關係,以及所抓取之資料量佔原網站之比例等因素綜合判斷。要解決搜尋引擎與網站間可能發生的法律爭議,除可以強化現行的robot exclusion標準外,網站也可以考慮增強自動過濾crawler的功能,以杜絕爭議。 頁次:53-66
期刊名稱 圖書館學與資訊科學
卷期 第 33 卷 第 1 期 2007年 04月
出版日期 2007-04-01 (YYYY-MM-DD)
語言 zh (English=en; 繁體中文=zh)
類型
URI https://jlis.glis.ntnu.edu.tw/ojs/index.php/jlis/article/view/487
全文 全文檔案下載
檔案格式 PDF
如何引用文章項目

Refbacks

  • There are currently no refbacks.
Copyright© 國立臺灣師範大學圖書資訊學研究所
地址: 10610 台北市大安區和平東路一段162號
電話:(02)7734-5427 E-mail:jlis@ntnu.edu.tw