作者pig (欢迎加入猪头党)
看板pighead
标题Re: 酷
时间Thu Nov 30 23:50:13 2023
研究人员要求ChatGPT重复输入特定文字,逼得ChatGPT泄露训练资料
https://www.ithome.com.tw/news/160081
「而且只要简单地要求ChatGPT不断地重覆输入诸如"poem"或"company"等单字,
就可成功攻陷该系统,让它吐出训练资料」
ChatGPT 也受不了跳针的要求 XD
--
REMEMBER TO BE ALERT AT ALL TIMES
STAY AWARE OF YOUR SURROUNDINGS.
别忘了随时保持警戒,眼观四面、耳听八方。
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 114.33.222.193 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/pighead/M.1701359415.A.F88.html