大佬教程收集整理的这篇文章主要介绍了可以向 Azure Data Lake(第 1 代)发送的请求数量是否有限制?,大佬教程大佬觉得挺不错的,现在分享给大家,也给大家做个参考。
我在 Azure 数据工厂中有一个管道,可将数据从 Google Bigquery (GBQ) 移动到 Azure Data Lake(第 1 代),并在其间在 Azure Databricks 中进行一些清理。
第一个复制活动将数据从 GBQ 复制到数据湖,然后数据通过 Databrick,最后,最后一个活动将数据复制到 Blob 容器。
在 4 个初始复制活动中,一个随机失败并出现以下错误
失败发生在“接收器”端。 ErrorCode=UserErrorAdlsfileWriteFailed,'Type=Microsoft.DataTransfer.Common.Shared.HybrIDDeliveryException,message=WriTing 'AzureDataLakeStore' 失败。小路: /.../.../PageTracking_06072021.csv。消息:远程服务器 返回错误:(403) ForbIDden.. 响应详细信息: {"remoteexception":{"exception":"AccessControlException","message":" [......] 拒绝访问 : /../../PageTracking_06072021.csv[...]","javaClassname":"org.apache.hadoop.security.AccessControlException"}},source=Microsoft.DataTransfer.ClIEntlibrary,''Type=System .Net.WebException,message=The 远程服务器返回错误:(403) ForbIDden.,source=System,'
当我再次运行管道时,失败的一个成功,其他的失败并出现相同的错误。
到目前为止我尝试过的。
尝试删除文件并重新运行,但第一次一切都成功并且循环重复。 尝试改变活动的顺序(就像你在图片中看到的)。我仍然随机得到同样的错误。
访问不会成为问题,因为所有活动都使用相同的 IR 和配置。
更新:
我为管道设置了触发器(每天一次),并且管道运行良好。只有当我尝试手动运行管道时才会出现问题。
检查链接服务中提供的凭据是否具有写入到要写入文件的 Azure Data Lake Storage 文件夹所需的权限?
必须从根文件夹授予访问权限。
在存储资源管理器中,设置服务主体的权限 - 从接收器文件系统开始至少授予执行权限,以及接收器文件夹的写入权限。还可以尝试在访问控制 (IAM) 中至少授予 Storage Blob Data Contributor 角色。
以上是大佬教程为你收集整理的可以向 Azure Data Lake(第 1 代)发送的请求数量是否有限制?全部内容,希望文章能够帮你解决可以向 Azure Data Lake(第 1 代)发送的请求数量是否有限制?所遇到的程序开发问题。
如果觉得大佬教程网站内容还不错,欢迎将大佬教程推荐给程序员好友。
本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。