“AI 医生”并不可靠,研究称五款头部 AI 平台半数医学建议存在误导性

来源:IT之家2026年04月15日 09:57

北京时间今天(4 月 15 日)早间,据彭博社报道,最新研究指出,AI 聊天机器人在约一半情况下会提供存在问题的医疗建议。

来自美国、加拿大和英国的研究团队对五款主流平台 ChatGPT、Gemini、Meta AI、Grok 和 DeepSeek 进行了测试。他们围绕五类健康主题提出 10 个问题。本周发表在《BMJ Open》的结果显示,在全部回复中,约 50% 存在问题,其中近 20% 被评估为严重问题

研究发现,这些模型在封闭式问题以及疫苗、癌症等领域表现相对较好,但在开放式提问以及干细胞、营养等话题上表现明显下滑。

研究人员指出,回答通常语气非常确定,但缺乏可靠依据,没有任何一个模型能够提供完整且准确的参考来源。同时,仅有两次拒绝回答的情况,且均来自 Meta AI。

这一结果进一步引发外界对生成式 AI 使用方式的担忧。这类系统既没有医疗资质,也缺乏进行临床判断的能力,却正被越来越多用户用于健康咨询。

OpenAI 表示,每周有超过 2 亿用户向 ChatGPT 咨询健康相关问题,并在 1 月推出面向普通用户和医疗专业人士的健康工具。Anthropic 也在同月宣布,将为 Claude 引入医疗服务能力。

研究作者警告,在缺乏公众教育和监管的情况下,大规模部署 AI 聊天机器人可能加剧错误信息传播。

IT之家从报道中获悉,研究人员写道,这些结果凸显出明显的行为局限,也表明有必要重新评估 AI 聊天机器人在公共医疗沟通中的使用方式,因为系统可能生成“听起来权威但实际上并不可靠”的回答。

投稿与新闻线索: 微信/手机: 15910626987 邮箱: 95866527@qq.com
中国能源网官方微信二维码
欢迎关注中国能源官方网站
分享让更多人看到
中国能源网版权作品,未经书面授权,严禁转载或镜像,违者将被追究法律责任。

即时新闻

要闻推荐

热点专题

精彩视频

院士对话|“十五五”,氢能发展最好的切入点在哪里?
网传深圳比亚迪坪山工厂出现火情:浓烟滚滚,火势明显
院士对话:如何提升区域能源的自给率
“十五五”,“AI+电网”的机遇在哪里?

精彩图集

力箭二号遥一运载火箭发射成功
美以伊战事30天——战争阴影下两座城市的日常
世界最大水下盾构隧道实现双层贯通
十四届全国人大四次会议第二场“部长通道”集中采访活动举行
“AI 医生”并不可靠,研究称五款头部 AI 平台半数医学建议存在误导性
分享到: