“沈先生。” 林荆点头,“欢迎。”
“叫沈述就好。” 他在对面坐下,动作很轻,“我现在没有 ‘总’ 可以当了。”
这话说得坦然,甚至带着点自嘲。
林荆准备好的所有警惕和防御,一时间竟有些无处着落。
论坛开始。前半程按部就班:王院长致辞,MIT教授介绍国际前沿趋势,李正延代表团队讲解“虚拟灯塔”的升级方案和三层干预模型。
李正延的汇报一如既往的精准。他没有回避U-5017的案例,反而将其作为核心论据,阐述算法伦理的必要性。当他展示那个模拟不同干预阈值的deo时,几位临床专家频频点头。
“我们的核心原则是,” 李正延最后总结,“技术应当拓展人的能力,而非替代人的连接;算法应当揭示复杂性,而非简化人性。”
掌声响起。
林荆看着台上那个清瘦但挺拔的身影,心里涌起一股复杂的骄傲——他为她守护的信念,铸造了如此坚实的技术铠甲。
轮到专家讨论环节。气氛开始升温。
一位来自伦理委员会的专家提问:“李博士,你提到‘ 算法揭示复杂性’。但医疗决策需要清晰的标准。当算法判断 ‘风险较高’ 而建议人工介入时,这个 ‘较高’ 的具体阈值,是由谁设定的?医生?工程师?还是你们所谓的‘伦理委员会’?如果将来出现纠纷,责任如何界定?”
问题很尖锐。李正延看向周斯越。
“这个问题涉及法律与技术的交叉。” 周斯越接过话筒,语气平稳,“在我们的框架中,阈值不是固定值,而是一个动态范围,由多学科团队(包括临床医生、伦理专家、技术团队)基于持续的数据反馈共同调整和校准。责任界定遵循‘谁决策,谁负责’的原则,人工介入的最终决定权在临床医生或经过培训的个案管理员手中,算法只提供参考。所有决策过程会被完整记录,可供审计。”
“这会不会导致医生过度依赖系统,反而推卸责任?” 另一位专家追问。
“所以我们的系统设计强调 ‘辅助’ 而非 ‘替代’。” 林荆接过话头,“它提供信息,但不做判断。就像CT机提供影像,但诊断是医生做出的。我们正在开发配套的决策支持培训,帮助使用者理解数据的意义和局限。”
讨论越来越深入,渐渐触及核心:在认知障碍这个充满不确定性的领域,技术究竟应该扮演什么角色?是提供确定性的拐杖,还是陪伴不确定性的灯塔?
就在争论最激烈时,沈述举起了手。
主持人示意他发言。
他站起来,没有走向发言台,就站在自己的座位旁。
全场安静下来。所有人都想听听,这个曾经的 “反派”,如今的 “公益人”,会说什么。
“各位专家刚才的讨论,非常精彩。” 沈述开口,声音不大,但清晰地传遍会场,“这让我想起三年前,我开发 ‘记忆云廊’ 的时候。那时候,我坚信技术可以做得更多——不只是陪伴,还可以 ‘修复’。我们设计了 ‘情感优化算法’,试图抹平痛苦,强化快乐。我们觉得,这是在做好事。”
他顿了顿,目光扫过全场,最后落在林荆脸上。
“直到我的母亲确诊阿尔茨海默病。”
会场里响起一阵轻微的骚动。
这是沈述从未公开过的隐私。