纯Java实现实时音频频谱需手动FFT和可视化,易卡顿延迟高;TarsosDSP最省事,支持自动分帧加窗FFT及回调输出,但须显式设采样率、50%重叠、汉宁窗补偿、dB转换与EDT线程同步。

Java 本身没有内置的实时音频频谱绘制能力,javax.sound.sampled 只能采集原始 PCM 数据,频谱计算和可视化必须手动实现——这意味着你得自己做 FFT(快速傅里叶变换),再把结果映射到图形上。不借助第三方音频处理库(如 TarsosDSP)或 JNI 封装(如 PortAudio + JNA),纯 Java 实现容易卡顿、延迟高、频谱不准。
用 TarsosDSP 做实时音频频谱最省事
TarsosDSP 是纯 Java 的音频处理库,自带 AudioDispatcher、FFT 和 SpectrumAnalyzer,适合桌面端轻量级实时分析。它从麦克风读取数据后自动分帧、加窗、FFT,并通过回调输出频谱幅值数组。
- 必须用
AudioFormat显式指定采样率(推荐44100或48000),否则AudioSystem.getTargetDataLine()可能返回不支持的格式导致静音 -
Overlap设为50%(即bufferSize / 2)能提升时域分辨率,避免频谱跳变 - 频谱点数 =
bufferSize / 2 + 1(实数 FFT 输出),不是 bufferSize 全长 - 绘图建议用
Swing的paintComponent配合双缓冲,别在事件线程里直接repaint()
FFT 输入前必须加汉宁窗(Hanning window)
原始音频帧直接 FFT 会产生频谱泄漏,高频能量“拖尾”,峰位偏移。TarsosDSP 默认不加窗,需手动包装 FloatBuffer 数据。
- 窗口函数用
float[i] *= 0.5 - 0.5 * Math.cos(2 * Math.PI * i / (length - 1)) - 加窗后要对幅值做补偿(通常 ×2),否则低频衰减明显
- 避免用矩形窗(即不加窗)——哪怕只是调试,也会看到底噪抬升、谐波分裂
Swing 绘制频谱条时注意坐标和缩放
频谱 Y 轴是幅值(非分贝),但人耳对数响应,直接画线性值会看不到低能量频段。必须转 dB = 20 * log10(|X[i]| + 1e-9),再归一化到控件高度。
立即学习“Java免费学习笔记(深入)”;
- 不要用
Math.log10(0)——未加保护会得-Infinity,绘图线程崩溃 - X 轴频率分布非线性:索引
i对应频率是i * sampleRate / bufferSize;想看 20Hz–20kHz,bufferSize 至少取 2048(44.1kHz 下最低分辨约 21.5Hz) - 每帧重绘前清空
Graphics2D背景,否则残留拖影;用setComposite(AlphaComposite.Clear)清屏比 fillRect 更稳
import be.tarsos.dsp.AudioDispatcher;
import be.tarsos.dsp.AudioEvent;
import be.tarsos.dsp.io.jvm.JVMAudioInputStream;
import be.tarsos.dsp.pitch.PitchDetectionHandler;
import be.tarsos.dsp.pitch.PitchDetectionResult;
import be.tarsos.dsp.pitch.PitchProcessor;
<p>import javax.swing.<em>;
import java.awt.</em>;
import java.awt.geom.Rectangle2D;</p><p>public class SpectrumPanel extends JPanel implements PitchDetectionHandler {
private final int width = 800;
private final int height = 300;
private final double[] spectrum = new double[1024];
private final float[] buffer = new float[2048];</p><pre class='brush:java;toolbar:false;'>public SpectrumPanel() {
setPreferredSize(new Dimension(width, height));
setBackground(Color.BLACK);
}
@Override
protected void paintComponent(Graphics g) {
super.paintComponent(g);
Graphics2D g2 = (Graphics2D) g;
g2.setRenderingHint(RenderingHints.KEY_ANTIALIASING, RenderingHints.VALUE_ANTIALIAS_ON);
for (int i = 0; i < spectrum.length && i < width; i++) {
double y = height - (spectrum[i] * height * 0.8);
g2.setColor(new Color(0, (int)(spectrum[i]*200), 255));
g2.fill(new Rectangle2D.Double(i, y, 1, height - y));
}
}
@Override
public void handlePitch(PitchDetectionResult result, AudioEvent e) {
float[] audioBytes = e.getFloatBuffer();
System.arraycopy(audioBytes, 0, buffer, 0, Math.min(audioBytes.length, buffer.length));
// Apply Hanning window
for (int i = 0; i < buffer.length; i++) {
buffer[i] *= 0.5 - 0.5 * Math.cos(2 * Math.PI * i / (buffer.length - 1));
}
// Simple magnitude spectrum (real FFT assumed)
for (int i = 0; i < Math.min(spectrum.length, buffer.length/2+1); i++) {
double re = 0, im = 0;
// Dummy FFT — in real use: feed to FFT class or use Tarsos' FFT
// This is placeholder logic; actual impl needs proper FFT
spectrum[i] = Math.max(0.01, Math.sqrt(re*re + im*im) * 2);
spectrum[i] = 20 * Math.log10(spectrum[i] + 1e-9); // to dB
spectrum[i] = Math.min(1.0, Math.max(0.0, (spectrum[i] + 60) / 60)); // normalize 0–1
}
repaint();
}
public static void main(String[] args) {
JFrame frame = new JFrame("Spectrum Analyzer");
SpectrumPanel panel = new SpectrumPanel();
frame.add(panel);
AudioDispatcher dispatcher = AudioDispatcher.fromDefaultMicrophone(2048, 1024);
dispatcher.addAudioProcessor(new PitchProcessor(PitchProcessor.PitchEstimationAlgorithm.FFT_YIN, 44100, 2048, panel));
new Thread(dispatcher).start();
frame.setDefaultCloseOperation(JFrame.EXIT_ON_CLOSE);
frame.pack();
frame.setVisible(true);
}}
真正卡住的地方不在 FFT 算法本身,而在音频流与 UI 线程的同步:Swing 不是线程安全的,repaint() 必须在 EDT 中触发,但音频回调在后台线程。上面示例用了 TarsosDSP 的 PitchProcessor 包装器来桥接,实际项目中更稳妥的做法是用 SwingUtilities.invokeLater() 包裹 repaint(),否则偶尔会抛 NullPointerException 或界面冻结。










