浏览器指纹(Browser Fingerprinting)是一种跟踪用户在线活动的技术,它通过收集用户浏览器和设备的一系列信息来构建一个独特的识别标记,即“指纹”。不同于传统的 cookie 追踪技术,浏览器指纹不需要在用户设备上保存任何信息,因此即使在用户禁用 cookie 的情况下,这种追踪方法依然有效。
浏览器指纹通常包括以下信息:
用户代理字符串(User-Agent String):包含浏览器类型、版本、操作系统和版本等信息。
浏览器插件详情:安装的浏览器插件列表和版本信息。
字体列表:用户设备上安装的字体列表。
屏幕分辨率和颜色深度:用户设备屏幕的分辨率和颜色处理能力。
语言设置:用户设置的首选语言。
时区和时间信息:用户设备的本地时间和时区设置。
HTML5 API 使用:例如 Canvas API 和 WebGL,这些 API 可能会暴露更多设备信息。
硬件信息:比如 CPU 类别、GPU 型号等。
网络信息:如 IP 地址、是否使用代理、网络延迟等。
交互特征:用户的鼠标移动和点击模式等行为数据。
通过这些信息的组合,网站可以创建一个相对唯一的指纹,用以识别和追踪用户的网上行为。浏览器指纹的精确性取决于收集的信息种类和量,以及用户使用的浏览器和设备的独特性。
由于隐私和安全性的关注,一些浏览器开发者和公司正在实施措施来减少这种追踪技术的有效性。例如,他们可能会限制网站访问某些信息,或者在浏览器中加入“防指纹”功能。尽管如此,浏览器指纹依然是广告和网络分析公司常用的一种用户跟踪方法。
浏览器指纹之所以存在,是因为网站和服务需要一种方法来识别和区分不同的用户,无论是出于安全原因、个性化体验还是商业追踪的需要。
主要原因包括:
安全和欺诈检测:网站可以使用浏览器指纹来识别潜在的欺诈行为,例如通过检测登录活动是否与用户历史上的设备和浏览器使用模式相匹配。在银行和电子商务网站中,这种方法可以帮助确认用户身份,防止未授权的访问。
个性化体验:网站可能会根据用户的设备和设置来优化内容展示和服务。例如,根据用户屏幕分辨率调整网站布局,或者根据用户所在时区显示正确的时间。
网络分析和用户追踪:广告商和分析服务利用浏览器指纹来追踪用户在不同网站上的活动,以便更准确地投放个性化广告,提高广告效果和相关性。
避免依赖 cookie:随着用户对隐私问题的日益关注和相关法规的实施(如欧盟的 GDPR),传统的基于 cookie 的追踪技术受到限制,这使得浏览器指纹成为一种替代性追踪手段。
技术发展:现代浏览器提供了复杂的 API 和高级功能,使网站能够访问更多关于用户设备和环境的信息。这些技术的发展为浏览器指纹的生成提供了更多可能性。
浏览器指纹的唯一性并不是绝对的,但是通过组合大量的浏览器和设备特征,它可以生成一个高度独特的标识符,这在很多情况下足以区分不同的用户。以下是保证浏览器指纹唯一性的一些因素:
多样性:不同用户的设备、操作系统、浏览器类型和版本、安装的插件、字体和其他配置因素的组合相当多样化。这种多样性增加了每个用户的浏览器指纹独特性。
详细信息:收集的信息越详细,指纹越能精确区分用户。例如,不仅仅是用户的操作系统,还可能包括具体的版本号、补丁级别、系统语言和设置等。
高级技术:HTML5 和 CSS3 等现代 Web 技术的进步允许网站收集更多关于用户设备的信息,比如 Canvas 和 WebGL API 可用性,这些技术的使用为浏览器指纹增加了更多独特的特征。
行为特征:除了静态属性外,用户的行为特征(如鼠标移动和点击模式)也可以增加指纹的唯一性,尽管这些数据更多变且可能需要更高级的分析。
定期更新:随着用户更新浏览器、插件和操作系统,他们的指纹特征也会发生变化。定期更新的指纹数据可以帮助跟踪这些变化,从而维持指纹的唯一性。
然而,尽管浏览器指纹可为每个用户提供一个相对唯一的标识,但仍有以下限制:
确实,有一些具体的技术可以用来收集浏览器指纹信息,这些技术利用了现代浏览器提供的 API 和特性。以下是一些用于浏览器指纹收集的技术和方法:
Canvas Fingerprinting:通过 Canvas API 绘制图形或文字,并分析得到的图像数据。由于不同的浏览器和操作系统可能在渲染时有细微的差异,这些差异可以用来识别用户的设备。
WebGL Fingerprinting:利用 WebGL API 来检测显卡信息和渲染能力。这些信息可以细分到显卡的型号、驱动程序版本,以及特定的渲染效果,这些都可能是独特的。
WebRTC:使用 Web Real-Time Communication (WebRTC) 技术可以揭露用户的真实 IP 地址,即使他们使用 VPN 或代理服务器。这是通过 STUN 服务器请求来完成的,可以发现用户的公共 IP 地址和某些网络配置细节。
Audio Fingerprinting:通过 Web Audio API 生成声音,并分析音频数据。不同的设备和浏览器可能会以不同的方式处理音频数据,产生特有的特征。
字体检测:JavaScript 可以用来枚举和检测用户设备上安装的字体列表。由于每个用户可能安装了不同的额外字体,这可以用来增加指纹的唯一性。
时区、语言和其他浏览器设置:JavaScript 可以检测用户的时区、首选语言、屏幕分辨率、颜色深度和其他浏览器设置。
设备传感器信息:某些移动设备和笔记本电脑配备了各种传感器,通过 APIs 如 Device Orientation API 和 Motion API,可以获得这些传感器的数据。
浏览器插件和扩展检测:虽然现代浏览器出于隐私考虑限制了直接枚举插件的能力,但仍然可以通过间接方法检测某些插件的存在。
HTTP 请求头:服务器可以分析用户的 HTTP 请求头,获取用户代理字符串、Accept 语言、Accept 编码等信息。
跟踪像素和 ETag:使用小的图像文件或者 HTTP 响应的 ETag 字段来追踪用户的请求。
指纹融合和变异:高级的指纹技术会综合多种数据源,并可能在一段时间内跟踪这些数据的变化,以创建一个更稳定的指纹。
这些技术可以单独使用,也可以组合使用以提高指纹的唯一性。
Canvas Fingerprinting 是一种通过 HTML5 Canvas API 收集用户浏览器信息的技术。当一个脚本使用 Canvas API 绘制图形或文本时,由于每个计算机的硬件配置、软件、字体和浏览器可能有所不同,绘制的输出可以稍有差异。这些微小的差异被用来生成用户的独特指纹。
以下是 Canvas 指纹的一些主要入参:
浏览器:不同的浏览器可能会以不同的方式实现 Canvas API,导致渲染的细微差异。
浏览器版本:浏览器的不同版本可能会修正之前的绘制行为或引入新特性,这些变化可以改变 Canvas 渲染的输出。
操作系统:不同的操作系统可能有不同的字体渲染策略、抗锯齿技术和其他图形渲染特性。
操作系统版本:即使是同一操作系统,不同的版本之间也可能存在渲染差异。
硬件信息:图形硬件(如 GPU)和驱动程序的不同,特别是在使用 WebGL API 时,会极大地影响 Canvas 的渲染。
设备分辨率:设备的屏幕分辨率或者浏览器窗口的尺寸会影响 Canvas 元素的实际渲染像素。
字体:系统中安装的字体和字体渲染技术可以改变文本的渲染方式,这是 Canvas 指纹最常用的特征之一。
浏览器插件和扩展:某些插件或扩展可能会影响浏览器的渲染行为,尽管这些影响通常较小。
浏览器设置:用户的浏览器设置,如缩放等级、语言设置,也可能影响 Canvas 的渲染。
HTML5 Canvas API 的使用方式:例如,使用的绘图命令(如填充样式、线条样式、阴影、变换等)和顺序。
以下是一个简单的 Canvas Fingerprinting 实现示例:
<!DOCTYPE html>
<html>
<head>
<title>Canvas Fingerprinting Example</title>
</head>
<body>
<canvas id="fingerprintCanvas" width="200" height="60"></canvas>
<script>
// 准备绘图环境
var canvas = document.getElementById("fingerprintCanvas");
var ctx = canvas.getContext("2d");
// 设置文本属性
ctx.textBaseline = "top";
ctx.font = "14px 'Arial'";
ctx.textBaseline = "alphabetic";
ctx.fillStyle = "#f60";
ctx.fillRect(125, 1, 62, 20);
// 设置渐变色
var gradient = ctx.createLinearGradient(2, 0, 150, 0);
gradient.addColorStop(0, "rgba(102, 204, 0, 0.7)");
gradient.addColorStop(1, "rgba(255, 102, 0, 0.7)");
ctx.fillStyle = gradient;
// 绘制文字
ctx.fillText("Hello, world!", 2, 15);
// 绘制一个蓝色的点
ctx.fillStyle = "rgba(0, 0, 255, 0.6)";
ctx.fillRect(80, 4, 10, 10);
// 将Canvas的数据转换为一个哈希值,用以标识指纹
// 例如,通过取Canvas的toDataURL来获取图像数据的base64编码,然后进行哈希
// 使用这个函数
const dataURL = canvas.toDataURL();
hashFunction(dataURL).then((canvasFingerprint) => {
console.log("Canvas Fingerprint:", canvasFingerprint);
});
async function hashFunction(data) {
// 将字符串转换成Uint8Array
const dataBuffer = new TextEncoder().encode(data);
// 使用SubtleCrypto的digest方法进行哈希
const hashBuffer = await crypto.subtle.digest("SHA-256", dataBuffer);
// 将哈希值转换为16进制字符串
const hashArray = Array.from(new Uint8Array(hashBuffer));
const hashHex = hashArray
.map((b) => b.toString(16).padStart(2, "0"))
.join("");
return hashHex;
}
</script>
</body>
</html>
在这个例子中,我们创建了一个 canvas
元素,并在文档中获取了它的上下文。然后,我们使用不同的颜色、渐变和文本来绘制一个独特的图像。最后,我们通过 toDataURL
方法将绘制的图像转换为一个数据 URL,然后可能通过某种哈希函数(在示例中未实现)将其转换为一个指纹字符串。
重要的是要注意,具体的哈希函数实现取决于你的需求和安全考虑。在实践中,你可能会使用一个像 SHA-256 这样的加密哈希函数来生成一个可靠的指纹。另外,越来越多的浏览器实现了防止跟踪技术,如提供在 toDataURL
和 getImageData
方法中返回一致结果的机制,以保护用户隐私。因此,Canvas Fingerprinting 的有效性可能会因浏览器的不同而变化。
FingerprintJS 是一个功能强大的库,它不仅使用 Canvas Fingerprinting,还整合了许多其他浏览器指纹技术。这个库易于使用,并且提供了详细的文档。
安装:
npm install @fingerprintjs/fingerprintjs
示例使用:
// 引入FingerprintJS
import FingerprintJS from "@fingerprintjs/fingerprintjs";
// 初始化FingerprintJS实例
FingerprintJS.load().then((fp) => {
// 获取访客标识符(visitor ID)
fp.get().then((result) => {
console.log(result.visitorId);
});
});
官网: https://fingerprintjs.com/
https://browserleaks.com/canvas
WebGL Fingerprinting 利用 WebGL API 来检测用户的显卡类型、驱动版本和渲染性能等细节。这是因为不同的设备和驱动程序在渲染 3D 图形时会有微小的差异,这可以用来生成一个独特的指纹。以下是一个简单的 WebGL Fingerprinting 的示例:
<!DOCTYPE html>
<html>
<head>
<title>WebGL Fingerprinting Example</title>
</head>
<body>
<canvas id="webgl-canvas" width="256" height="256"></canvas>
<script>
// 获取 WebGL 上下文
function getWebGLContext(canvas) {
var gl = null;
try {
gl =
canvas.getContext("webgl") ||
canvas.getContext("experimental-webgl");
} catch (e) {}
if (!gl) {
alert("Unable to initialize WebGL. Your browser may not support it.");
gl = null;
}
return gl;
}
// 创建并编译一个着色器
function compileShader(gl, shaderSource, shaderType) {
var shader = gl.createShader(shaderType);
gl.shaderSource(shader, shaderSource);
gl.compileShader(shader);
if (!gl.getShaderParameter(shader, gl.COMPILE_STATUS)) {
throw "Shader compile failed with: " + gl.getShaderInfoLog(shader);
}
return shader;
}
// 创建 WebGL 程序
function createWebGLProgram(
gl,
vertexShaderSource,
fragmentShaderSource
) {
var vertexShader = compileShader(
gl,
vertexShaderSource,
gl.VERTEX_SHADER
);
var fragmentShader = compileShader(
gl,
fragmentShaderSource,
gl.FRAGMENT_SHADER
);
var program = gl.createProgram();
gl.attachShader(program, vertexShader);
gl.attachShader(program, fragmentShader);
gl.linkProgram(program);
if (!gl.getProgramParameter(program, gl.LINK_STATUS)) {
throw "Program failed to link with: " + gl.getProgramInfoLog(program);
}
return program;
}
// 主函数
function main() {
var canvas = document.getElementById("webgl-canvas");
var gl = getWebGLContext(canvas);
if (!gl) {
return;
}
var vertexShaderSource =
"attribute vec2 position; void main() { gl_Position = vec4(position, 0.0, 1.0); }";
var fragmentShaderSource =
"precision mediump float; void main() { gl_FragColor = vec4(1.0); }";
var program = createWebGLProgram(
gl,
vertexShaderSource,
fragmentShaderSource
);
// 使用我们创建的WebGL程序
gl.useProgram(program);
// 设置清除颜色并清除
gl.clearColor(0.0, 0.0, 0.0, 0.0);
gl.clear(gl.COLOR_BUFFER_BIT);
// 从着色器中获取属性位置
var positionLocation = gl.getAttribLocation(program, "position");
// 创建一个缓冲区并将顶点数据放入缓冲区
var buffer = gl.createBuffer();
gl.bindBuffer(gl.ARRAY_BUFFER, buffer);
var vertices = new Float32Array([
-1.0, -1.0, 1.0, -1.0, -1.0, 1.0, 1.0, 1.0,
]);
gl.bufferData(gl.ARRAY_BUFFER, vertices, gl.STATIC_DRAW);
// 告诉属性如何从positionBuffer中获取数据 (ARRAY_BUFFER)
var size = 2;
var type = gl.FLOAT;
var normalize = false;
var stride = 0;
var offset = 0;
gl.vertexAttribPointer(
positionLocation,
size,
type,
normalize,
stride,
offset
);
gl.enableVertexAttribArray(positionLocation);
// 绘制图形
var primitiveType = gl.TRIANGLE_STRIP;
var offset = 0;
var count = 4;
gl.drawArrays(primitiveType, offset, count);
// 获取渲染结果的像素
var pixels = new Uint8Array(4 * 256 * 256);
gl.readPixels(0, 0, 256, 256, gl.RGBA, gl.UNSIGNED_BYTE, pixels);
// 生成 WebGL 指纹
var webglFingerprint = hashFunction(pixels.join(""));
console.log("WebGL Fingerprint:", webglFingerprint);
}
main();
// 此函数用于生成数据的哈希值,类似于前面的Canvas指纹示例中的hashFunction
function hashFunction(data) {
// 你可以在这里插入一个真实的哈希函数来计算 WebGL 数据的哈希
// 例如使用SHA-256,或者其他加密哈希算法
return "hash_of_" + data;
}
</script>
</body>
</html>
在这个例子中,我们创建了一个 WebGL 上下文,并构建了基础的 WebGL 程序,包括一个顶点和片元着色器。然后,我们将一些简单的几何图形(一个四边形)发送到 GPU 进行渲染,并使用 readPixels
方法得到渲染结果的像素数据。最后,我们将这些像素数据转换成一个字符串,并使用假设的 hashFunction
来生成这些数据的哈希,这将是我们的 WebGL 指纹。
Audio Fingerprinting 利用 Web Audio API 生成声音并分析其特征,由于不同的设备和浏览器可能对音频数据的处理有细微差异,这些差异可以用来生成一个独特的指纹。
以下是一个简单的 Audio Fingerprinting 示例:
<!DOCTYPE html>
<html>
<head>
<title>Audio Fingerprinting Example</title>
</head>
<body>
<script>
// 创建一个离线音频上下文用于音频指纹分析
var context = new (window.OfflineAudioContext ||
window.webkitOfflineAudioContext)(1, 44100, 44100);
// 创建一个振荡器节点
var oscillator = context.createOscillator();
oscillator.type = "triangle"; // 设置振荡器的类型
oscillator.frequency.setValueAtTime(10000, context.currentTime); // 设置频率
// 创建增益(音量)节点
var gainNode = context.createGain();
gainNode.gain.setValueAtTime(0, context.currentTime); // 设置增益值
gainNode.gain.linearRampToValueAtTime(1, context.currentTime + 0.01); // 在0.01秒内增加增益
// 将振荡器连接到增益节点,然后连接到离线上下文
oscillator.connect(gainNode);
gainNode.connect(context.destination);
// 开始振荡
oscillator.start(0);
oscillator.stop(0.1); // 0.1秒后停止振荡
// 渲染音频并分析结果
context
.startRendering()
.then(function (buffer) {
var channelData = buffer.getChannelData(0); // 获取渲染的音频缓冲区数据
var fingerprint = hashFunction(channelData); // 假定存在一个hashFunction函数来生成哈希
console.log("Audio Fingerprint:", fingerprint);
})
.catch(function (e) {
console.error(e);
});
// 哈希函数实现,这里使用了一个简化的方法仅作示例
function hashFunction(data) {
return data
.slice(0, 100)
.reduce(function (acc, value) {
return acc + Math.abs(value * 10000);
}, 0)
.toString();
}
</script>
</body>
</html>
在上述示例中,我们创建了一个 OfflineAudioContext
,这使我们可以在不需要实际播放任何声音的情况下生成和处理音频数据。通过一个 OscillatorNode
我们创建了一个三角波,并将其通过一个 GainNode
传递,最后输出到离线上下文。
我们启动振荡器,设置一系列的参数用于产生特定的音频信号。随后,我们启动音频渲染过程,并在完成后通过 startRendering
方法的 Promise 获取音频缓冲区。接着,我们提取音频数据的一部分并通过一个简化版的 hashFunction
函数计算音频指纹。这个简化版的哈希函数仅是将一系列样本的数值相加,实际应用中,会需要一个更为复杂和可靠的哈希函数,比如 SHA-256。
这种方法的关键优势在于生成音频数据的过程是在离线环境中完成的,因此不会有实际的声音播放,这对于用户来说是无感知的。