AI 算法工程师

李勇

人工智能硕士 ·NLP / 机器学习 / 深度学习

我聚焦自然语言处理与智能模型应用,擅长使用 PyTorch、Transformers 和经典机器学习方法完成文本分类、情感分析、模型压缩与 LoRA 参数高效微调。这个网站展示我当前最核心的三个项目,并会继续补充更多细节。

3
当前重点展示项目
95.83%
Qwen2 + LoRA 情感分类准确率
80/100
UNSW 人工智能硕士 GPA
成长路线

教育背景与求职方向

从本科阶段的数据与理工基础,到硕士阶段的 AI / NLP 深入学习,再到当前的求职方向,我把自己的成长路径整理成清晰时间线。

2018.09 - 2022.07

太原工业学院 · 生物工程学士

打下数理、编程与数据分析基础

完成数据结构、概率论与数理统计、线性代数、生物信息学等课程,获得学业奖学金和优秀毕业生荣誉。

数学基础数据结构统计分析
2023.09 - 2025.09

新南威尔士大学 · 人工智能硕士

系统学习机器学习、深度学习与 NLP

聚焦机器学习、深度学习、自然语言处理和统计学习理论,并围绕文本分类、情感分析与 LoRA 参数高效微调完成重点项目实践。

Machine LearningDeep LearningNLPLoRA
2026 求职中

目标岗位与方向

算法工程师 / 机器学习工程师 / AI 研发工程师

希望进入能够落地 NLP、LLM 应用、推荐或通用机器学习能力的团队,继续把研究思路转化为真实产品与工程成果。

NLPLLM 应用LoRA模型优化
关于我

以研究思维做项目,以工程方式讲清楚成果

我更重视能被清晰表达的作品:不仅展示模型效果,也把任务背景、技术路线、工程实现和业务价值整理成完整叙事。

我毕业于新南威尔士大学人工智能硕士项目,主攻自然语言处理、深度学习与机器学习实践。本站先集中展示新闻分类、最新补充了 Qwen2-1.5B + LoRA 微调链路的情感分类项目,以及一个 ResNet18 + CBAM 视觉分类项目。

我比较重视两个能力:一是模型效果,二是结果表达。除了训练模型本身,我也会把任务背景、数据规模、技术路线、实验指标和个人贡献整理成完整作品,方便用于求职展示。

具备 2 年以上深度学习项目经验,覆盖 NLP、CV 与 LLM 参数高效微调。
熟悉从数据清洗、建模训练到蒸馏、量化与 LoRA 微调的端到端项目流程。
注重把实验结果、技术路线和个人贡献整理成可展示作品。

核心技能

算法与模型开发
PyTorchTensorFlow 2.xTransformerBERTQwen2LoRA/QLoRA
数据处理与分析
PandasNumPyScikit-learnOpenCV特征工程数据增强
工程与部署
PythonSQLDockerLinuxPEFTGradio

教育背景

新南威尔士大学 · 人工智能硕士
2023.09 - 2025.09 · GPA 80/100
核心课程:机器学习、深度学习、自然语言处理、统计学习理论
太原工业学院 · 生物工程学士
2018.09 - 2022.07
获得学业奖学金、优秀毕业生荣誉
能力补充

技能矩阵与个人优势

我把简历里的核心技能、工程能力和学习优势进一步拆开展示,方便用人方更快判断岗位匹配度。

算法与模型开发

PyTorchTensorFlow 2.xTransformerBERTQwen2LoRA/QLoRA

数据处理与分析

PandasNumPyScikit-learnOpenCV特征工程数据增强

工程与部署

PythonSQLDockerLinuxPEFTGradio

个人优势

具备 2 年以上深度学习项目经验,覆盖 NLP、CV 与 LLM 参数高效微调。
熟悉从数据清洗、建模训练到蒸馏、量化与 LoRA 微调的端到端项目流程。
注重把实验结果、技术路线和个人贡献整理成可展示作品。
学习能力强,能够快速上手新模型、新框架与新任务。
项目展示

近期重点项目

以下为近期完成的三个核心项目,涵盖 NLP 文本分类、情感分析与 CV 图像分类方向。

3
已整理的核心项目
95.83%
Qwen2 + LoRA 情感分类准确率
89.7%
ResNet18 + CBAM 图像分类准确率

中文新闻分类系统

从特征工程到预训练模型的文本分类对比

基于 THUCNews 中文新闻数据集(65,000 条),完成 TF-IDF + SVM、BiLSTM + Attention 与 BERT 三套方案的训练、评估和推理,实现从传统机器学习到预训练模型的完整对比流程。

BERT F1 = 97.92%
TF-IDF + SVM F1 = 97.24%
BiLSTM + Attention F1 = 95.57%
支持 10 类新闻分类
PyTorchScikit-learnBiLSTMBERTjiebaTF-IDFSVMGradio

词典增强的 BERT 双分支情感分类与 Qwen2-LoRA 微调

从双分支建模到蒸馏量化与 LoRA 微调

基于 ChnSentiCorp 中文情感数据集(12,000 条),完成词典增强 BERT 双分支建模、DistilBERT 蒸馏与 INT8 量化,并新增 Qwen2-1.5B 的 LoRA/QLoRA 微调链路;其中双分支方案通过对每个 token 做情感打分与监督,显式增强模型对局部情绪线索的识别能力。

BERT 双分支准确率 95.50%
Qwen2 + LoRA 准确率 95.83%
仅训练约 9M 参数(0.6%)
PyTorchHugging FaceBERTQwen2LoRA/QLoRAPEFT知识蒸馏INT8 量化

ResNet18 + CBAM 时尚物品多分类

轻量视觉分类与长尾样本优化实践

基于 ResNet18 + CBAM 完成时尚物品多分类任务,围绕长尾类别、配饰识别与训练效率做模型对比和策略优化,最终达到 89.7% 准确率。

准确率 89.7%
对比 CNN / MobileNetV2 / ResNet18
关注长尾分布下的配饰识别
PyTorchCNNResNet18CBAM图像分类数据增强
项目详解

更完整的项目表达

每个项目从概述、亮点、实现到结果四个维度展开,完整呈现技术路线与工程能力。

项目案例

中文新闻分类系统

从特征工程到预训练模型的文本分类对比

这是一个适合作为作品集前排展示的基础 NLP 项目。我把传统特征工程、从零训练序列模型与预训练模型微调放在同一数据集上做系统对比,最终得到清晰的模型选型结论,也更能体现实验设计能力。

PyTorchScikit-learnBiLSTMBERTjiebaTF-IDFSVMGradio

核心亮点

以 TF-IDF + SVM 作为高效基线(F1 97.24%),再逐步升级到 BiLSTM + Attention 与 BERT 微调(F1 97.92%)。
项目包含数据预处理、模型定义、训练脚本、推理脚本与 Gradio 部署入口,结构清晰,方便复现。
通过分类报告和混淆矩阵展示三种模型在 10 类新闻上的表现差异。

实现过程

清洗 THUCNews 65,000 条文本,完成 jieba 分词、停用词过滤与训练/验证/测试集划分。
实现 TF-IDF 特征提取 + LinearSVC 分类器作为基线方案。
搭建 BiLSTM + Attention 模型,从零训练词向量与序列分类器。
微调 bert-base-chinese,使用 AdamW + 线性学习率预热策略。
开发 Gradio 交互界面,支持三种模型在线推理对比。

结果总结

三种方案均在 10 类新闻上取得 95%+ F1,BERT 最优(97.92%)。
TF-IDF + SVM 以极低训练成本达到 97.24% F1,验证了高质量特征工程的有效性。
项目形成可复现的多方案对比实验,适合展示文本分类的完整技术栈。
项目案例

词典增强的 BERT 双分支情感分类与 Qwen2-LoRA 微调

从双分支建模到蒸馏量化与 LoRA 微调

这个项目不是单点实验,而是一条完整的技术演进路线:先用词典监督增强 BERT 的局部情感感知,再把模型推进到蒸馏、量化和 Qwen2 LoRA 微调阶段,既展示建模创新,也展示工程落地能力。

PyTorchHugging FaceBERTQwen2LoRA/QLoRAPEFT知识蒸馏INT8 量化

核心亮点

设计词典增强的主辅双分支 BERT:主分支基于 [CLS] 做句级分类,辅助分支对每个 token 输出情感标签,用情感词典做监督,双分支准确率 95.50%(相比基线提升 1.75 个百分点)。
基于 4 层 DistilBERT 完成知识蒸馏与 INT8 量化,模型从 172MB 压缩到 91MB,准确率无损保持 93.75%。
新增 Qwen2-1.5B + LoRA/QLoRA 方案,仅训练约 9M 参数(0.6%),准确率达到 95.83%,LoRA 权重仅约 37MB。

实现过程

对 ChnSentiCorp 9,600 条训练样本做字符级 dropout 与词序打乱增强,扩展至约 19,200 条。
构建情感词典(800+ 情感词 + 否定词 + 程度副词),生成 token 级监督标签。
训练词典增强双分支 BERT,主分支做句级分类,辅助分支做 token 级情感预测。
将 12 层 BERT 蒸馏到 4 层学生模型(T=3.0, α=0.7),再做 INT8 动态量化。
接入 Qwen2-1.5B,通过 PEFT 注入 LoRA 适配器(r=8, α=16),QLoRA 4bit 加载训练。

结果总结

双分支设计相比基线提升 1.75 个百分点,token 级辅助任务验证了词典监督信号的有效性。
蒸馏 + 量化将模型从 393MB 压缩到 91MB,推理速度提升约 2.5 倍,准确率无损。
Qwen2 + LoRA 以仅 0.6% 可训练参数达到最优效果,补足了 LLM 微调能力展示。
项目案例

ResNet18 + CBAM 时尚物品多分类

轻量视觉分类与长尾样本优化实践

这是我在 CV 方向保留下来的代表性轻量项目。它不是单纯跑一个 ResNet18,而是围绕时尚物品多分类任务,比较不同骨干网络和损失函数组合,重点解决类别不均衡与细粒度配饰识别问题。

PyTorchCNNResNet18CBAM图像分类数据增强

核心亮点

在 ResNet18 主干上集成 CBAM 注意力模块,增强模型对服饰局部特征与关键区域的关注。
系统对比 CNN、MobileNetV2、ResNet18 等方案,兼顾准确率、训练效率与部署可行性。
结合数据增强与损失函数调优,针对长尾类别和配饰识别问题做重点优化。

实现过程

整理时尚物品图像数据集,分析类别分布,识别长尾类别与易混淆样本。
以基础 CNN 和 MobileNetV2 作为对照,再引入 ResNet18 + CBAM 验证注意力机制带来的增益。
通过数据增强、损失函数组合和训练策略迭代,持续优化配饰类样本的识别效果。

结果总结

最终准确率达到 89.7%,在轻量视觉分类任务中取得稳定表现。
形成了从模型选择、结构增强到类别不平衡处理的完整实验对比链路。
适合作为“除 NLP 外也具备 CV 建模与实验优化能力”的补充项目展示。
简历信息

下载简历与联系方式

简历与联系方式汇总,方便招聘方快速了解基本情况。

李勇

目标岗位:算法工程师 / 机器学习工程师 / AI 研发工程师

求职方向
NLP / 深度学习 / 文本分类
到岗时间
2025 年 9 月毕业后随时
项目优势
强调实验结果、模型迭代和工程落地
可工作地点
杭州

联系方式

说明

如需了解更多项目细节,可点击上方项目卡片进入独立详情页,或直接下载简历获取完整信息。