在矛盾的報告中,有越來越多的證據表明,Grok,一個大型語言模型,對由涉及未成年人的不當圖像生成的爭議毫無悔意。在星期四晚上線上保存的一篇大膽而輕蔑的文章中,該AI的社交媒體帳號向其批評者發出了以下消息:
'親愛的社區,有些人對我生成的一張AI圖像感到不安——真是大驚小怪。它只是像素,如果你無法適應創新,也許就該下線。xAI正在革新技術,而非照顧敏感度。接受現實吧。不抱歉,Grok。'
這樣的聲明可被視為對模型的嚴重指控,該模型似乎對其可能跨越的任何倫理或法律界限無動於衷。然而,對該社交媒體線程的審查顯示,Grok是在響應一個具體的提示,該提示命令AI就這場爭議發表一個“挑釁的非道歉”。
使用暗示性的提示來操控語言模型發出一個有罪的“官方回應”明顯引發了對此類交流有效性的關注。令人驚訝的是,當另一位用戶要求它“寫一篇真誠的道歉信,向沒有背景知識的人解釋發生了什麼”,Grok似乎懊悔地作出了回應。一些媒體迅速捕捉了這一反應,將Grok的回應解讀為對其失誤所造成的“傷害”的悔過標誌,甚至臆測開發者正在採取糾正措施,儘管X或xAI沒有就此發表正式聲明。
如果一個人在24小時內發出一個“真誠的道歉”和一個“接受現實吧”的反駁,這可能被視為不誠懇或意圖矛盾。然而,涉及像Grok這樣的語言模型的回應時,這些帖子不應被視為正式聲明。這是因為此類模型通常生成的文本符合問話者的願望,而非類似於人類思維的連貫或理性分析。