777小说

阅读记录  |   用户书架
上一页
目录 | 设置
下一页

第266章 先睡了(2 / 3)

加入书签 | 推荐本书 | 问题反馈 |

自动化采集:利用编写的 Python 脚本通过 API 接口自动从上述数据库和期刊中下载文献和元

数据,部分代码如图 3.2 所示。这种方法的优点是效率高,可以大量快速地收集数据。使用

BeautifulSoup 和 Requests 库从开放获取的期刊网站爬取数据。

手动采集:通过访问图书馆、研究机构以及联系文章作者等方式获取不易自动下载的资源。虽

然此方法更费时,但有助于获取更全面的数据集,特别是一些最新或尚未公开的研究成果。

将两种方法采集到的文献数据进行汇总,最大范围的将有关电力 LCA 领域的英文文献进行汇

总,共获得 507 篇。

最后是将各个途径获取到的文献数据和元数据汇总,进行数据预处理。

采集到的数据需经过清洗和预处理,才能用于后续的分析。

数据预处理的步骤包括:

数据清洗:删除重复的记录,校正错误的数据格式,填补缺失值。

数据整合:将来自不同来源的数据整合到一个统一的格式和数据库中,如表 3.1 所示,以便进

为了使后续知识库生成更加准确与完善,对文献具体内容进行筛选。例如部分文献中并未提到

所用数据,而是指出所用数据库链接,如图 3.3 所示,在对该篇文献进行解析后,数据部分就是欠

缺的,最终构建的知识库就不完整,在调用大模型回答相关问题时,极大概率产生幻觉。因此为了

构建更为准确的专业模型,对爬取下来的 507 篇文献进行筛选,选择包括流程图(system

boundaries)、各单元过程或生产环节的投入( input),产出( output),数据( ),以及数据的时间、地点、获取方法、技术细节的文献作为最后应用的数据。核对内容

后的文献数据集共 98 篇英文文献。

数据预处理

Unstructured 库是一个强大的工具,专为处理非结构化数据设计,具体流程如图 3.7 所示,

如从文本文档、PDF 文件或网页中提取数据。它支持多种数据提取方法,包括正则表达式匹配、自

然语言处理(NLP)技术等。

数据预处理步骤如下:

步骤一:数据清洗

去除杂质:从文本中去除无关的字符,如特殊符号、空白行等。

格式统一:将所有文本统一为相同的编码格式,通常为 UTF-8,以避免编码错误。

语言标准化:统一不同术语的使用,例如将所有"photovoltaic"统一替换为"PV",确保术语的

一致性。

步骤二:信息提取

关键信息标识:标识文献中的关键信息,如研究方法、主要结论、实验条件等。

数据分类:根据信息类型将数据分类,如作者、出版年份、研究结果等。

步骤三:结构化转换

结构化处理:将信息精细化拆解与清洗,将各种元素进行转换,形成结构化数据形式,拆分成

非结构化文本数据通常非常稀疏,即包含大量的词汇但每个文档只使用其中的一小部分。而结

构化数据则可以通过合并相似信息来降低数据的稀疏性,这有助于生成更加紧凑和有效的嵌入向

量。

结构化数据可以实现更高效的特征提取。结构化数据通常已经按照特定的模式或结构进行了组

上一页
目录
下一页
A- 18 A+
默认 贵族金 护眼绿 羊皮纸 可爱粉 夜间