程序问答   发布时间:2022-06-02  发布网站:大佬教程  code.js-code.com
大佬教程收集整理的这篇文章主要介绍了可以向 Azure Data Lake(第 1 代)发送的请求数量是否有限制?大佬教程大佬觉得挺不错的,现在分享给大家,也给大家做个参考。

如何解决可以向 Azure Data Lake(第 1 代)发送的请求数量是否有限制??

开发过程中遇到可以向 Azure Data Lake(第 1 代)发送的请求数量是否有限制?的问题如何解决?下面主要结合日常开发的经验,给出你关于可以向 Azure Data Lake(第 1 代)发送的请求数量是否有限制?的解决方法建议,希望对你解决可以向 Azure Data Lake(第 1 代)发送的请求数量是否有限制?有所启发或帮助;

我在 Azure 数据工厂中有一个管道,可将数据从 Google Bigquery (GBQ) 移动到 Azure Data Lake(第 1 代),并在其间在 Azure Databricks 中进行一些清理。

可以向 Azure Data Lake(第 1 代)发送的请求数量是否有限制?

第一个复制活动将数据从 GBQ 复制到数据湖,然后数据通过 Databrick,最后,最后一个活动将数据复制到 Blob 容器。

在 4 个初始复制活动中,一个随机失败并出现以下错误

失败发生在“接收器”端。 ErrorCode=UserErrorAdlsfileWriteFailed,'Type=Microsoft.DataTransfer.Common.Shared.HybrIDDeliveryException,message=WriTing 'AzureDataLakeStore' 失败。小路: /.../.../PageTracking_06072021.csv。消息:远程服务器 返回错误:(403) ForbIDden.. 响应详细信息: {"remoteexception":{"exception":"AccessControlException","message":" [......] 拒绝访问 : /../../PageTracking_06072021.csv[...]","javaClassname":"org.apache.hadoop.security.AccessControlException"}},source=Microsoft.DataTransfer.ClIEntlibrary,''Type=System .Net.WebException,message=The 远程服务器返回错误:(403) ForbIDden.,source=System,'

当我再次运行管道时,失败的一个成功,其他的失败并出现相同的错误。

到目前为止我尝试过的。

尝试删除文件并重新运行,但第一次一切都成功并且循环重复。 尝试改变活动的顺序(就像你在图片中看到的)。我仍然随机得到同样的错误。

访问不会成为问题,因为所有活动都使用相同的 IR 和配置。

更新:

我为管道设置了触发器(每天一次),并且管道运行良好。只有当我尝试手动运行管道时才会出现问题。

解决方法

检查链接服务中提供的凭据是否具有写入到要写入文件的 Azure Data Lake Storage 文件夹所需的权限?

必须从根文件夹授予访问权限。

在存储资源管理器中,设置服务主体的权限 - 从接收器文件系统开始至少授予执行权限,以及接收器文件夹的写入权限。还可以尝试在访问控制 (IAM) 中至少授予 Storage Blob Data Contributor 角色。

大佬总结

以上是大佬教程为你收集整理的可以向 Azure Data Lake(第 1 代)发送的请求数量是否有限制?全部内容,希望文章能够帮你解决可以向 Azure Data Lake(第 1 代)发送的请求数量是否有限制?所遇到的程序开发问题。

如果觉得大佬教程网站内容还不错,欢迎将大佬教程推荐给程序员好友。

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。