🤖 从“手搓爬虫”到“一句话扒站”:AI 如何把技术活变成“一句话的事”?
大家好!我是 Canen,今天想和大家聊聊一个让我感慨颇深的话题——技术的“贬值速度”。
还记得几年前,我兴致勃勃地报了个爬虫课。那时候,爬虫在我眼里简直是“硬核大神”的标配技能。🛠️ 你得学各种反爬规则、配一堆复杂环境、研究 Scrapy 这种框架……学不会的时候,还会怀疑自己是不是不够努力。
但就在最近,我用 AntiGravity、Codex、Claude Code 这类 AI 编程工具,真的就只输入了一句话:
“调用浏览器,把这个目录站的数据全部抓下来。”
然后……它就真的开始跑了。🕷️ 一个站的数据,轻轻松松就扒了下来。
那一刻我有点恍惚:我以前花那么多时间学的,到底是什么?
🚀 不只是爬虫:VPS 配置也从“玄学”变成“一句话”
类似的事情还发生在我前两天买的 DMIT VPS 上。
我买它的目的很简单:想让自己的电脑走美国原生 IP。如果放在去年,这绝对是个“渡劫”流程:
- SSH 密钥生成与配置(第一次总会配错)
- 环境安装,各种依赖报错
- 节点设置,协议和端口调到头秃
- VPS 那套命令行界面,对新手简直是“火星文”
折腾一两个小时是常态,最后还不一定能成功。
但这次呢?我直接对 Codex 说:
“帮我在本地配置好连接这台 VPS,并设置成全局代理。”
它真的就把命令一行行写出来,我几乎不用动脑,跟着执行就通了。
全程不到 10 分钟,一点没操心。✅
💡 我的核心判断:现在还有必要“手搓爬虫”吗?
所以我现在形成一个很直接的判断:
现在再花大量时间专门学习“如何手搓一个爬虫”,性价比已经很低了。
注意,我不是说“数据不重要了”。数据依然价值连城。
而是 “把网页扒下来”这个动作,正在被 AI 快速变成“体力劳动”。
以前你要写代码、处理异常、解析结构、绕过反爬……现在,AI 帮你生成代码,甚至直接帮你执行。
很多曾经有门槛的技术活,都在经历这样的“降维打击”:
写爬虫、配 VPS、折腾环境、写重复的业务代码……
今天你还在吭哧吭哧研究,明天模型一升级,这层技术门槛可能又被碾平一截。⚠️
📉 为什么“具体技术”贬值越来越快?
我越来越感觉到,很多具体技术的学习曲线和贬值曲线,正在形成残酷的对比:
- 学的时候:很硬核,要投入大量时间。
- 学会之后:可
登录后可查看完整内容,参与讨论!
立即登录