程序问答   发布时间:2022-06-02  发布网站:大佬教程  code.js-code.com
大佬教程收集整理的这篇文章主要介绍了如何从 Node.js 中的文本文件中批量读取行大佬教程大佬觉得挺不错的,现在分享给大家,也给大家做个参考。

如何解决如何从 Node.js 中的文本文件中批量读取行?

开发过程中遇到如何从 Node.js 中的文本文件中批量读取行的问题如何解决?下面主要结合日常开发的经验,给出你关于如何从 Node.js 中的文本文件中批量读取行的解决方法建议,希望对你解决如何从 Node.js 中的文本文件中批量读取行有所启发或帮助;

我试图找出一种方法来打开 Node.Js Stream 以将文本/CSV 文件作为流读取,以便

  • 读取一批行
  • 暂停阅读
  • 进行一些异步处理:将所有行解析为对象数组,然后将它们发送到 API。
  • 继续阅读
  • 转到第 1 步

我一直在使用 readline 并取得了一些成功,但它不太好用,因为 pause() doesn't stop it right away,并且它在前一批仍在处理时不断读取更多行。最终结果是下游 API 调用阻塞并发批处理,我受到了限制。

我想在处理批处理时“关闭水龙头”,这样如果我受到限制,我可以退避,退避,然后重试直到批处理完全处理,然后我可以继续阅读。

有一个基于 event-stream 的旧包 split 处理行拆分,但两个项目都已存档。

这是可以用 Transform Stream

解决的问题吗?

解决方法

csv 示例

npm i csv-parser --save

@R_675_5276@sv = require('csv-parser')
const fs = require('fs')

let counter = 0;
let batch = []

const stream = fs.createReadStream('FILE_PATH')
.pipe(csv())
.on('data',(data) => {
    console.log('data',data)

    batch.push(data)
    counter ++

    if(counter > 5000) {
        stream.pause()

        setTimeout(() => {
            // YOUR ASYNC PROCESSING
            counter = 0;
            batch = []
            stream.resume()
        },5000)
    }
})
.on('error',(E) => {
    console.error(E)
})
.on('end',() => {
    console.log('end');

   // YOUR ASYNC PROCESSING
});

以 txt 为例

npm i line-by-line --save

const LineByLineReader = require('line-by-line')

let counter = 0;
let batch = []

rl = new LineByLineReader('FILE_PATH');

rl.on('line',(linE) => {
    console.log('line',linE)

    batch.push(linE)
    counter ++

    if(counter > 5000) {
        rl.pause()

        setTimeout(() => {
            // YOUR ASYNC PROCESSING
            counter = 0;
            batch = []
            rl.resume()
        },() => {
    console.log()

    // YOUR ASYNC PROCESSING
})

大佬总结

以上是大佬教程为你收集整理的如何从 Node.js 中的文本文件中批量读取行全部内容,希望文章能够帮你解决如何从 Node.js 中的文本文件中批量读取行所遇到的程序开发问题。

如果觉得大佬教程网站内容还不错,欢迎将大佬教程推荐给程序员好友。

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。