一、项目功能点梳理根据上次小组会议的分工我再次对需要实现的功能点进行了细节梳理后端部分。1、口语训练1日常聊天与AI语伴进行语音开放式对话模拟真实场景交流提升口语流利度与反应能力同时还可以收听AI语言纠正自己的发音。2语音交互支持双向语音输入输出摆脱文字局限直接进行口语练习。3语法自动诊断实时分析发送的语音精确定位语法错误并给出修正建议还可以对句子的地道性进行打分。2、智能语言诊断与反馈1语法分析从语法规则、词汇搭配、语序逻辑等维度精确定位句子中的错误与不足。不仅可以诊断用词精准度和语序流畅度还可以提供多种修正意见兼顾愿意保留与表达自然度。2地道性分析从母语者的日常表达习惯出发评估句子的自然度并给出更贴合实际交流的优化方向。3润色助手针对不同场景日常、正式、学术等提供一键式文本优化。这部分支持切换“正式”“口语”“文学”“新闻”“商务”“学术”等多种场景满足不同沟通需求。3、多工具集成学习中心1翻译工具支持多语言互译可直接在对话中快速翻译陌生表达。2词汇查询遇到生词时可即使查询释义、例句以及用法。二、项目框架设计基于功能点分析由我们之前的设想这一部分的后端采用python进行实现Python在AI领域生态成熟、开发效率高能保障语伴对话的流畅性与低延迟。随后我根据功能需要我对当下多种AI模型进行了调研最终决定采用Qwen3-ASR、DeepSeek、Qwen3-TTS、WeNet四大模型。四大模型采用云端使用本地部署的混合AI架构其设计图如下该架构以WeNet本地引擎专精于细粒度时序分析的发音评测、Qwen3-ASR云端服务保障开放场景下的高精度语音识别以及DeepSeek大语言模型作为驱动智能对话与多维度评估的认知中枢最终以Qwen3-TTS完成拟人化语音输出的闭环。