期刊文献+

论数据抓取法律风险的流程化管理 被引量:7

在线阅读 下载PDF
导出
摘要 网络爬虫能够高效抓取数据,是释放数据价值的重要手段。现行立法过于碎片化,难以有效规制不法爬虫、引导正当爬虫的使用;司法对网络爬虫侵入性的认定具有扩大化倾向,阻碍了数据的正常流通与合理使用。就法律而言,网络爬虫是一种能够自动化收集并存储数据的技术。“基于风险的方法”在网络数据治理中得到广泛应用,利用该方法规制数据抓取技术具有正当性与可行性。通过既有案例归纳数据抓取场景中不同爬虫的行为样态,并依据影响对象和影响程度为其匹配不同风险等级,构建爬虫抓取数据法律风险的流程化管理框架,形成基于风险的合规和基于风险的监管,为数据处理者和监管者提供一个具体的风险管理指南。 Web crawlers can efficiently scrape data and are an important means of unlocking the value of data.China's current legislation is too fragmented to effectively regulate illegal crawlers and guide the use of legitimate crawlers.The judicial Department tends to expand the defining of the invasiveness of web crawlers,which hinders the normal circulation and reasonable use of data.A web crawler,in terms of law,is a technology that can automatically collect and store data.The"risk-based approach"is widely used in network data governance,and it is legitimate and feasible to regulate data scraping technology using this method.By summarizing the behavior patterns of different crawlers in data scraping scenarios based on existing cases,and matching them with different risk levels based on the affected objects and the degree of impact,a process-based management framework for the legal risks of crawler data scraping is constructed.It will help risk-based compliance and risk-based supervision,providing a detailed risk management guide for data processors and regulators.
作者 饶传平
出处 《东方法学》 CSSCI 北大核心 2023年第6期28-42,共15页 Oriental Law
基金 国家社科基金重大项目“数字社会的法律治理体系与立法变革研究”(项目批准号:20&ZD178)的阶段性研究成果
关键词 网络爬虫 数据抓取 风险管理 自动化 数据治理 合规 web crawler data scraping risk management automation data governance compliance
作者简介 饶传平,江西财经大学法学院教授,数据法律研究院院长
  • 相关文献

参考文献33

二级参考文献547

共引文献2185

同被引文献157

引证文献7

二级引证文献9

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部