让大模型当你的24小时数据实习生,时薪只要$0.002
场景:老板给你一张1000行的客户反馈表,让你:
按情绪分类(好评/中评/差评)
提取关键问题
写一份分析报告
你的选择:
真实工作场景
输入文件:客户反馈.xlsx
核心代码:50行搞定
import pandas as pdimport openaifrom tqdm import tqdm # 进度条,让等待不焦虑# 设置API密钥(从环境变量读取,安全)openai.api_key = "sk-你的API密钥"def analyze_feedback(text): """调用GPT-4分析单条反馈""" prompt = f""" 分析以下客户反馈,按JSON格式返回: {{ "情绪": "好评/中评/差评", "关键问题": "提取核心问题,没有写'无'", "建议回复": "写一段客服回复话术" }} 反馈内容:{text} """ response = openai.ChatCompletion.create( model="gpt-3.5-turbo", # 成本低,效果够 messages=[{"role": "user", "content": prompt}], temperature=0.3 # 低温度,结果稳定 ) # 解析JSON返回 import json try: result = json.loads(response.choices[0].message.content) return result except: return {"情绪": "解析失败", "关键问题": "N/A", "建议回复": "N/A"}# 读取Exceldf = pd.read_excel("客户反馈.xlsx")# 批量处理(带进度条,1000条约3分钟)results = []for text in tqdm(df['反馈内容'], desc="AI分析中"): result = analyze_feedback(text) results.append(result)# 合并结果df['情绪'] = [r['情绪'] for r in results]df['关键问题'] = [r['关键问题'] for r in results]df['建议回复'] = [r['建议回复'] for r in results]# 保存df.to_excel("分析结果.xlsx", index=False)# 自动生成统计报告report = f"""=== 客户反馈AI分析报告 ===总样本数:{len(df)}好评率:{len(df[df['情绪']=='好评'])/len(df):.1%}差评率:{len(df[df['情绪']=='差评'])/len(df):.1%}TOP3问题:{df['关键问题'].value_counts().head(3).to_dict()}建议:重点关注物流时效和包装问题"""print(report)with open("分析报告.txt", "w") as f: f.write(report)print("✅ 完成!生成文件:分析结果.xlsx + 分析报告.txt")
AI分析中: 100%|████████████████| 1000/1000 [03:12<00:00, 5.20it/s]✅ 完成!生成文件:分析结果.xlsx + 分析报告.txt
成本核算(老板爱看的)
ROI:时薪$0.002的AI实习生,永不疲惫,不会辞职。进阶魔改
魔改1:异步加速,1000行变30秒
import asyncioimport aiohttpasync def analyze_async(text): # 并发请求,速度提升10倍 async with aiohttp.ClientSession() as session: # ... 异步调用API pass# 批量并发tasks = [analyze_async(text) for text in df['反馈内容']]results = await asyncio.gather(*tasks)
魔改2:接入飞书/钉钉,自动通知
import requestsdef send_feishu(report): webhook = "https://open.feishu.cn/..." requests.post(webhook, json={ "msg_type": "text", "content": {"text": report} })# 分析完成后自动发群里send_feishu(report)