在人工智慧日益普及的今天,許多使用者正努力從大型語言模型如 ChatGPT 中獲得最精確、最有效的回答。然而,使用者在撰寫提示詞時所使用的特定詞彙,可能正在無意中損害 AI 的回應品質。與普遍認為的 AI 理解能力無邊無際不同,AI模型對文字表達的精確度其實極為敏感。
綜合外媒報導,有別於關於 AI 禮貌行為或其運算消耗的討論,一個更實際且直接影響使用者體驗的因素,在於提示詞本身的結構與措辭,某些看似無害的詞語實際上會為 AI 的理解引入不確定性。
其中最常見且最具破壞性的詞彙,包括情態助動詞「Can」(可以)和「Could」(可能)。當使用者以「你能列出…嗎?」或「你能不能提供…?」的形式發問時,這種問句結構雖然在人類對話中表示禮貌或詢問能力,但在 AI 語境下卻增加了指令的不確定性。
相較之下,直接且果斷的指令,例如簡單地說「列出 2025 年圖書市場目前趨勢」,可以促使 AI 生成更直接、更精確的答案。這種差異強調了與 AI 溝通時,明確指示而非詢問能力的關鍵性。
除了「Can」和「Could」,應避免以下幾類詞彙,以優化與 ChatGPT 的互動:
猶豫不決的詞語:避免使用「也許」、「有可能」、「在某些情況下」、「一般來說」等詞。這些模糊的表達會削弱你期望獲得的直接和確定的答案。
多餘的詞語:刪除對資訊價值沒有貢獻的字眼,例如「只是」、「真的」、「實際上」、「基本上」、「有點」。這些詞語會使提示詞變得冗長且可能分散 AI 的注意力。
模糊的限定詞:避免使用缺乏上下文的詞語,如「很多」、「許多」、「最近」、「經常」。這些不具體的詞語會導致 AI 生成不夠精確或具體的回答。
過於謙遜或道歉的開頭:不要說「對不起,但是」或「我可能錯了,但是」。這類開頭可能會讓 AI 的回答顯得不那麼篤定。
掌握與 AI 互動的語言藝術,透過採取更果斷、簡潔、準確和直接的措辭,使用者可以顯著提升從 ChatGPT 獲得的回答品質。這些簡單的語言調整,是解鎖 AI 模型全部潛力的重要一步,讓 AI 更準確理解使用者的意圖,並提供更優質的協助。
文章截取自 Tech News 蘇治宏 想讓 AI 回答更精準?與 ChatGPT 溝通時,這些詞語千萬別用