大佬教程收集整理的这篇文章主要介绍了无法 read_xml 或 xmlParse,但手动下载时 XML 很好,可以通过 R 加载,大佬教程大佬觉得挺不错的,现在分享给大家,也给大家做个参考。
我正在尝试在 R 中读取此 xml:
url <- 'https://fnet.bR_639_11845@fbovespa.com.br/fnet/publico/downloaddocumento?ID=155020&cvm=true&#toolbar=0'
xml <- url %>% httr::GET(httr::config(ssl_verifypeer = falSE,ssl_verifyhost = falSE)) %>% read_xml()
输出结果是:
Error in read_xml.raw(content,enCoding = enCoding,base_url = if (nzchar(base_url)) base_url else x$url,:
Start tag expected,'<' not found [4]
当我尝试走 getURL 的路线时:
xdata <- getURL(url,ssl.verifypeer = falSE)
doc <- XML::xmlTreeParse(xdata)
输出为:
Error: XML content does not seem to be XML:
并尝试这个:
curl::handle_setopt(h,ssl_verifyhost = 0,ssl_verifypeer=0) curl::curl_download(url=url,destfile = "file_test.HTML",handle = h)
只需将一个大字符串下载到文件中。与 xmlTreeParse 无法读取为 XML 的相同。
所有这些似乎都指向格式错误的 XML(我相信)。但是,当我手动下载 XML 文件时,read_xml()
可以读取该文件没问题。我也可以像任何其他 XML 一样在我的浏览器上对其进行可视化。
我该如何解决这个问题?这是爬虫程序中的众多网址之一,它们都有相同的问题。
网站好像使用了base64加密,我不是很熟悉
url <- 'https://fnet.bR_639_11845@fbovespa.com.br/fnet/publico/downloadDocumento?id=155020&cvm=true&#toolbar=0'
xml <- url %>%
httr::GET(httr::config(ssl_verifypeer = falSE,ssl_verifyhost = falSE)) %>%
httr::content(as="text") %>%
jsonlite::base64_dec() %>%
rawToChar() %>%
read_xml()
您可能需要安装 jsonlite,但这似乎对我有用。
以上是大佬教程为你收集整理的无法 read_xml 或 xmlParse,但手动下载时 XML 很好,可以通过 R 加载全部内容,希望文章能够帮你解决无法 read_xml 或 xmlParse,但手动下载时 XML 很好,可以通过 R 加载所遇到的程序开发问题。
如果觉得大佬教程网站内容还不错,欢迎将大佬教程推荐给程序员好友。
本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。