Java爬虫保存数据需避坑:文本用UTF-8编码+flush/close防乱码丢失;JSON推荐Gson/Jackson序列化防语法错误;大数据量用SQLite/MySQL配PreparedStatement与事务提升安全与性能;保存前校验空值并加日志。

用Java写简易爬虫,核心是“抓取+解析+保存”,数据保存环节关键在于选对方式、避开常见坑——比如中文乱码、文件覆盖、异常中断丢失数据等。
用FileWriter保存为文本文件(适合初学者)
最直接的方式是把爬到的标题、链接等内容拼成字符串,写入.txt文件。注意指定UTF-8编码,否则中文会变问号或乱码。
- 创建FileWriter时传入new OutputStreamWriter(new FileOutputStream(file), "UTF-8"),或直接用Files.write()配合StandardCharsets.UTF_8
- 别用writer.write(str)后不flush()和close(),否则内容可能卡在缓冲区没真正写入磁盘
- 想追加内容(比如多次运行不覆盖),构造FileWriter(file, true),第二个参数设为true
用JSON格式保存结构化数据(推荐进阶使用)
如果爬的是商品名、价格、描述等字段分明的数据,存成JSON更清晰、易读、后续也方便转Excel或导入数据库。
- 引入Gson或Jackson库,把自定义对象(如Product类)直接序列化成JSON字符串
- 用Files.write(Paths.get("data.json"), jsonStr.getBytes(StandardCharsets.UTF_8))保存,确保中文不乱码
- 避免手动拼JSON字符串——容易出语法错误,且无法自动处理特殊字符(如引号、换行)
用JDBC保存到SQLite或MySQL(适合需要查重/分页/统计)
当数据量变大(几百条以上),或需要去重、按时间筛选、统计数量时,文件就不好管理了,该上轻量数据库。
立即学习“Java免费学习笔记(深入)”;
- SQLite零配置,只依赖一个jar包(sqlite-jdbc),适合本地测试;MySQL需提前建好表和连接信息
- 用PreparedStatement插入,防止SQL注入,也能正确处理含单引号、换行的文本内容
- 开启事务(conn.setAutoCommit(false)),批量插入完再commit(),性能明显提升
保存前加一层简单校验与日志
爬虫跑着跑着挂了?保存失败却没提示?加两行基础防护能省下大量调试时间。
- 保存前检查数据是否为空或长度过短(比如标题
- 用System.out.println("已保存 " + list.size() + " 条数据")或java.util.logging记下关键动作
- 把try-catch包住整个保存逻辑,至少e.printStackTrace()或打印错误消息,别让它静默失败









