在弗吉尼亚大学数据科学学院的一项最新分析中,研究团队发现,试图用人工智能来界定人类美貌,结果往往更多反映训练数据中的偏见,而不是某种客观、普适的标准。
研究人员借助计算机视觉和统计建模方法,检验面部特征与“黄金比例”之间的关系。黄金比例长期被视为衡量吸引力的数学基准,被不少人当作“客观美”的量化工具。然而,分析结果显示,真正主导模型输出的并不是这些数学比例,而是人口统计学差异等因素。这一发现直接动摇了“美可以被精确量化”的传统假设。
在具体方法上,团队利用回归分析、聚类和降维等技术,对大量面部图像进行处理,并将现实数据与黄金比例这一理论基准进行对照。结果表明,不同人口群体之间存在明显差异,说明被广泛接受的“美的标准”,很可能只是底层数据集偏见的投射,而非任何跨文化、跨群体的普遍理想。
“这个项目凸显了人工智能模型的一个核心局限——它们所谓的客观性,完全受限于所学习的数据。”数据科学副教授 Prince Afriyie 指出,“当我们试图量化美貌时,往往暴露出的,是代表性问题和偏见,而不是某种统一的标准。”

这些结果也折射出人工智能面临的更大挑战:基于人类生成数据训练的系统,极有可能复制甚至放大社会和文化中的既有偏见,尤其是在处理高度主观的领域时。从社交媒体的美颜滤镜,到各类生物识别与审查工具,只要试图对人类外貌进行标准化或自动化判断,就存在在大规模系统中固化这些偏见的风险。
研究团队因此强调,在利用人工智能分析复杂人类特征时,多样且具有代表性的数据集至关重要,同时必须对模型背后的假设进行持续、批判性的审视。否则,技术看似“中立”的输出,实则可能是偏见的再包装。
尽管数学模式确实能够刻画自然界的某些结构和规律,但研究表明,人类对美的感知深受文化背景、社会环境和个人经验的影响。美并不能被压缩为单一公式或固定比例,这也进一步凸显了人工智能在界定本质上主观的特质时所面临的根本局限。