用 BERT 模型进行文本分析 本教程主要演示了: 从本地加载训练好的 BERT 模型; 用合适的预训练模型,对原始文本(raw text)进行分词,并将其转换为 ID; 借助加载好的模型,用 ID 输入生成池化和序列化输出; 查看不同句子池化输出结果的语义相似性。 版权信息: Apache License 2.0 协议 安装环境: Python:3.6 TensorFlow:< 2.5,≥ 2.4.0 TF.Text:2.4.3 代码目录: 准备工作 配置模型 准备数据 运行模型 语义相似性比较 注意事项: 本教程推荐使用 GPU 运行。