Node.js   发布时间:2022-04-24  发布网站:大佬教程  code.js-code.com
大佬教程收集整理的这篇文章主要介绍了如何使用Node.js中的bigquery API获取800万条Google Cloud记录?大佬教程大佬觉得挺不错的,现在分享给大家,也给大家做个参考。
我正在使用Bigquery查询Google云数据.

当我运行查询时,它返回大约800万行.
但它会引发错误

如何获得所有800万条记录,任何人都可以提供帮助.

解决方法

1.大查询响应的最大大小是多少?

正如它在Quota-policy查询中提到的最大响应大小:128 MB压缩(返回大型查询结果时无限制)

2.我们如何在“导出方法”中选择查询请求中的所有记录?

如果您计划运行可能返回更大结果的查询,则可以在job configuration中将allowLargeResults设置为true.

返回大结果的查询将花费更长的时间来执行,即使结果集很小,并且受制于additional limitations

>您必须指定目标表.
>您不能指定顶级ORDER BY,TOP或LIMIT子句.这样做会否定使用allowLargeResults的好处,因为无法再并行计算查询输出.
>仅当与PARTITION BY子句一起使用时,窗口函数才能返回大型查询结果.

阅读有关如何分页获取结果的更多信息here以及从第200页开始的BigQuery Analytics book读取的内容,其中说明了Jobs::getQueryResults如何与maxResults参数和int的阻塞模式一起工作.

更新:

查询结果大小限制 – 有时,很难知道128 MB的压缩
数据意味着

在BigQuery中运行普通查询时,响应大小限制为128 MB压缩数据.有时,很难知道128 MB的压缩数据意味着它被压缩2倍? 10倍?结果在内压缩它们各自的列,这意味着压缩比趋于非常大好.例如,如果您有一个列是国家/地区的名称,那么就在那里可能只有几个不同的价值观.当你只有几个不同的值,这意味着没有很多独特的信息和列通常压缩得很好.如果你返回加密的数据blob,他们会可能不会很好地压缩,因为它们大多是随机的. (这在第220页上面链接的书中有解释)

大佬总结

以上是大佬教程为你收集整理的如何使用Node.js中的bigquery API获取800万条Google Cloud记录?全部内容,希望文章能够帮你解决如何使用Node.js中的bigquery API获取800万条Google Cloud记录?所遇到的程序开发问题。

如果觉得大佬教程网站内容还不错,欢迎将大佬教程推荐给程序员好友。

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。