自从OpenAI在2022年首次向公众推出ChatGPT以来,人们利用这款AI工具做了许多不明智的事情——从律师引用虚构的案例法提交法庭文件,到普通用户因聊天机器人肯定妄想思维而陷入严重心理健康危机。现在又多了一项:询问ChatGPT如何在家自行注射面部填充剂——这是一种旨在丰满嘴唇和脸颊等部位的流行美容程序,且完全没有医疗专业人员的协助。
“我今晚要给自己注射了,”一位Reddit用户在最近的一篇帖子中写道。“我手头已备齐所有所需物品,正试图研究如何尽可能保持无菌/清洁的最佳方法。我问了ChatGPT,它说绝对不要使用普通手套,我在谷歌上查了查,却找不到任何具体信息。”
不用说,这是一个极其糟糕的想法。请不要在家进行此操作,而是去一家合格的医疗机构,以免伤到自己。(虽然专业人士也可能搞砸这个过程,但至少他们可以承担责任。)
遗憾的是,没有人责备这位Reddit用户向ChatGPT寻求建议。事实上,快速浏览同一子版块(这里节俭的美容爱好者交换自行实施美容程序的技巧)发现大量类似令人担忧的情况。
“我用ChatGPT帮我绘制毒素和PN放置图,如何稀释我的毒素面部以及注射深度等,”一位评论者热情说道。“如果你发送注释照片,它可以查看你的映射并纠正。”
另一位用户在DIY美容程序出现问题后求助于AI。
“我问了[ChatGPT],它说由于少量物质可能通过泪槽迁移到脸颊区域[sic],”他们写道。“但由于迁移,很可能已溶解到血液中。纤维化可能发生但可能会解决。如果脂肪被溶解,应该非常微不足道。”
AI模型可能在某些方面彻底改变医学,例如西奈山伊坎医学院正在将AI纳入培训医生的过程中。研究人员对AI用于早期诊断前列腺癌和心脏病等疾病感到兴奋。
然而,对于AI聊天机器人在提供有用医疗建议方面的效果如何,尚无定论。例如,今年三月发表在《npj数字医学》杂志上的一篇论文显示,尽管像ChatGPT这样的大型语言模型比搜索引擎更准确,但在某些情况下仍会输出超过30%的错误建议。
此外,输出质量依赖于提示的质量。
“我们发现,一些引导模型指向权威来源的输入提示比基本提示(或根本不提供上下文的提示)有效得多,”研究人员写道。“然而,普通用户很少会使用复杂的提示或与LLM进行复杂互动。”
简而言之,你可以向ChatGPT提问——但在进行任何治疗之前,请务必咨询真正的医生,尤其是在家自行操作的情况下。
(全文结束)

