最近,GitHub上一个名为「同事.Skill」的项目突然爆火,短短几天内星标数飙升,引发全网热议。紧随其后,“老板.Skill”“前任.Skill”等衍生项目层出不穷,仿佛我们身边的每个人都能被“炼化”成7×24小时在线的数字分身。
媒体标题更是耸人听闻:“完美复刻同事甩锅姿势”“彻底替代你的职场搭档”……一时间,赛博永生、AI替代人类的叙事甚嚣尘上。
但冷静下来,拨开流量与焦虑的迷雾,我们会发现:这根本不是什么黑科技,而是一场被严重神化的技术玩梗。
一、技术真相:爬虫 + 提示词 = 角色扮演剧本
「同事.Skill」的技术架构出奇简单。整个项目核心由几个静态Markdown文件构成:
persona.md:定义“人格”,如说话风格、决策偏好;work.md:描述工作能力,如技术栈、流程规范;meta.json:存储元数据。
项目提供了一系列Python脚本(如feishu_auto_collector.py、wechat_parser.py),功能仅限于从飞书、钉钉、微信等平台抓取聊天记录和文档,并将其格式化为统一文本。随后,这些文本被喂给大模型(如Claude),由其总结生成上述Markdown文件。
运行时,AI只是读取这些静态文件作为上下文,严格按照预设“人设”进行角色扮演。它没有模型训练,没有向量数据库,更没有持久化记忆。每次对话都是独立的,不会因你的反馈而学习或进化。
所谓的“五层人格结构”(从硬性规则到人际行为),不过是提示词的一种组织方式,目的是让角色扮演更细致。但这绝不等于复刻了一个人的思维模式或知识体系。
二、能力局限:只能模仿表象,无法复制灵魂
这类Skill能提取的,仅是最表层的信息:
- 口头禅:如“嗯嗯”“好的呢”;
- 显性流程:如“PR前必须跑单元测试”;
- 技术栈:如“熟悉React”。
但它无法复制:
- 复杂判断力:在性能、成本、工期间权衡取舍;
- 创新解法:面对新问题时的灵光一现;
- 经验直觉:老工程师看到代码就“感觉有坑”的第六感。
更致命的是“专家悖论”——当你要求AI扮演专家时,它会优先模仿专家的语气和姿态,反而可能因过度拟合表达形式而输出错误答案。
此外,随着对话轮次增加,初始人格提示在上下文中的权重被稀释,AI会出现“人格漂移”,逐渐偏离预设角色。它连稳定扮演都做不到,遑论替代真人?
三、法律雷区:你的聊天记录,不是公司的免费素材
比技术缺陷更危险的,是其背后巨大的法律风险。
项目要求用户提供同事的飞书、钉钉、邮件甚至微信聊天记录。这直接踩中《个人信息保护法》的红线:
- 数据权属模糊:员工离职后,其工作期间产生的沟通数据是否仍属公司资产?法律并未明确授权企业可将其用于AI“蒸馏”。
- 缺乏个人同意:根据《个保法》第13条,处理个人信息需取得本人同意。而绝大多数“被炼化”的同事对此毫不知情。
- 敏感信息泄露:工作聊天中常包含健康状况、家庭情况、财务压力等敏感信息。《个保法》第28条明确规定,处理此类信息需“单独同意”,而非入职时的笼统授权。
更严重的是,微信数据的抓取本身可能违规。《腾讯微信软件许可协议》禁止用户对运行数据进行复制或衍生开发。若因此导致数据泄露,《数据安全法》第45条甚至规定了刑事责任。
这意味着,每一个“同事.Skill”,都可能成为企业吃官司的导火索——无论是被“炼化”者投诉,还是因泄露他人信息引发集体诉讼。
四、从玩梗到神化:焦虑如何扭曲了技术真相
这场闹剧的起源,其实只是一条X平台的调侃推文:“被毕业的同事,只是被蒸馏成了Token。”它精准戳中了职场人对AI替代的集体焦虑。
但当话题从小圈子扩散至大众舆论场,技术细节被层层简化,叙事被不断夸张:
- 爬虫脚本 → 数字永生;
- 提示词工程 → 人格复制;
- GitHub玩具 → 职场生存危机。
公众对AI的认知空白,为夸大叙事提供了温床。人们分不清“角色扮演”与“意识上传”,也不理解“上下文注入”与“真实记忆”的区别。于是,一个简单的文本拼接工具,被包装成了颠覆人类存在方式的“奇点事件”。
结语:警惕技术神话,回归理性认知
真正值得担忧的,从来不是「同事.Skill」本身,而是大众对AI能力的系统性误读。
把AI当作万能替代品,不仅会误导企业战略,更会加剧不必要的社会恐慌。相反,若将其定位为知识传承的辅助工具或带人设的智能日志,则更具现实价值。
在AI狂飙突进的时代,我们更需要清醒:技术可以模仿语气,但无法承载责任;可以复刻代码,但无法替代判断。而保护个人数据权利、厘清数字人格边界,才是比“赛博永生”更紧迫的议题。
共同学习,写下你的评论
评论加载中...
作者其他优质文章