2026年春节,开个帖子记录一下自己的投资和读书碎片,以及锻炼日常。
【投资】:不追求捷径,记录和反思,打磨投资逻辑。
【读书】:偏爱小说、历史、传记,26年每天半小时。
【锻炼】:对抗惰性,半马争取进150。
【其他】:希望每天学点新东西在这里记录。
更新频率随缘,但争取真实和持续。
(2026.02.17 初一开帖)
【投资】:不追求捷径,记录和反思,打磨投资逻辑。
【读书】:偏爱小说、历史、传记,26年每天半小时。
【锻炼】:对抗惰性,半马争取进150。
【其他】:希望每天学点新东西在这里记录。
更新频率随缘,但争取真实和持续。
(2026.02.17 初一开帖)
0
前阵子J君聊起使用大模型的苦恼:单位内部限制使用ChatGPT这类外部API,而如果用内部私有化部署的服务,又难免被运维人员看到使用记录,实在无奈。
最近OpenAI发布了一篇博客(Disrupting Malicious Uses of AI),暴露他们直接分析用户的使用日志来识别恶意行为。服务商那里,用户的操作日志几乎是透明的,相信服务商的道德很不靠谱。
好奇调研了一下大模型推理加密的现状:基于同态加密的软件方案,开销大、延迟高;基于硬件隔离的方案,则相当于把信任完全交给了Nvidia。从实际落地来推测,两种方案都不是很靠谱。
周末有机会找P君好好学习一下。
最近OpenAI发布了一篇博客(Disrupting Malicious Uses of AI),暴露他们直接分析用户的使用日志来识别恶意行为。服务商那里,用户的操作日志几乎是透明的,相信服务商的道德很不靠谱。
好奇调研了一下大模型推理加密的现状:基于同态加密的软件方案,开销大、延迟高;基于硬件隔离的方案,则相当于把信任完全交给了Nvidia。从实际落地来推测,两种方案都不是很靠谱。
周末有机会找P君好好学习一下。
Edge
Chrome
Firefox
京公网安备 11010802031449号