#單詞卡
蘋果年度 App 出爐!女兒想學單詞,他直接做了個 AI 神器 | 對話 CapWords
2025 年接近尾聲,蘋果2025 年 App Store Awards 獲獎名單也揭曉了,年度 App 給了《CapWords》這個國產寶藏應用。CapWords 是一款語言學習工具,在今年的蘋果設計獎中它就是獲獎名單上第一個國產應用。它憑什麼呢?你隨手拍張照,AI 就能幫你把身邊的東西變成單詞卡。比如拍個咖啡杯 ,它直接告訴你英文、法文怎麼說,還能生成設計感線上的貼紙。不知道大家有沒有同感,很多時候在 app 上背的單詞總感覺離生活太遠,和自己關係不大,彷彿學的是一個個抽象的英文字母組合而不是一個單詞。而 CapWords 反客為主,讓使用者主動去學習生活中物品的單詞,還能有助於聯想記憶,整個玩法也很有樂趣,頗有《寶可夢》中小智收集寶可夢圖鑑的感覺。APPSO 之前對 CapWords 做過體驗,大家可以感受一下👇除了名詞,現在動詞形容詞都能認,甚至 Live 圖和視訊也能識別。還能列印成實體卡片,儀式感拉滿。APPSO 也專訪了 Capwords 開發者,聊聊語言的門檻被 AI 「踏破」之後,我們和語言之間,究竟還剩下些什麼。這不只關於技術和產品,Capwords 創始人 Ace 最開始是為了幫女兒 Dorothy 學習才做的這個 App,他從生活場景中尋找記憶錨點,這大概就是技術的浪漫。對話 Capwords 開發者:詞彙是和生活「摩擦」這款接連斬獲蘋果設計大獎和 App Store Awards 的產品叫做「英語學習工具」,顯然太過侷限。Capwords 更像是一件關於語言、記憶和生活場景的裝置:拍照即識別,貼紙設計,搭配活潑輕盈的視覺風格,讓人忍不住多看幾眼,也順手就多認識幾個單詞。在 Capwords 近乎直覺般的設計背後,是一個簡單卻深刻的理念:語言的學習回歸生活,它可以從一次指認、一次散步、一次「這個怎麼說」的好奇心開始。APPSO:最早是因為小朋友有一個很簡單的需求,指著東西問「這個用英語怎麼說」,這就是整個靈感的來源和項目開端是吧?DTD:對,我女兒大概三歲左右,不到三歲。我經常在夏天帶她出去玩,我們會去公園,或者一些寫字樓前的廣場上。在玩的過程中,她會問我一些問題,比如「這個植物叫什麼?」「這個路牌怎麼念?」我就會一邊陪她玩,一邊跟她解釋,有時也會用一些識別類的產品幫她查。可能是因為在她好奇心爆發那個階段,這樣的場景其實非常多。印象比較深的一次,是在一個寫字樓的地磚縫裡,長出了一種叫「狗芽根」的植物。她很偶然地指著說:「爸爸,那有個狗芽根!」類似的場景讓我特別觸動。再結合她之前也會問我一些「這個用英文怎麼說」的問題,我就在想:這種「場景 + 圖像 + 資訊「的結合」,可能會讓她的記憶更好。我自己本身也是一個設計師出身,所以對於圖像或者資訊的這種感受會更敏感一點。圖片來自:小紅書@DTD.STUDIOS所以跟女兒互動的這些場景,很多都會給我這樣的感受:語言本身應該是在生活裡的,我們能用什麼辦法能幫助到這件事。大概就是這樣一個過程。APPSO:你們當時有意識到類似的需求,並不只是出現在孩子身上,其實更廣泛的使用者群都有這種需求嗎?DTD:沒有,因為我自己英語就不好,我不太擅長去背,或者把一個個知識點硬塞到腦子裡。我也不是學教育的,所以對於語言學習,我的理解是語言發生在生活裡。如果有一個環境,比如聊天時看到了、聊到了,看到一個東西和圖像時,會有關聯記憶。我會自己總結一些原則,比如為什麼某個圖像會吸引我,或者一個彩色的樓,或者我們城市裡看到的有特點的建築物,引起我注意的可能就是我腦海中圖形的關聯性,這一點非常重要。這也許是我作為設計師的個人總結,不一定完全科學。圖片來自:小紅書@DTD.STUDIOSAPPSO:市面上大部分的查詞軟體都比較臃腫,但 Capwords 把路徑做得非常簡單,一拍就可以完成。但你們擔心過對學習效果的影響嗎?DTD:這個 CLU 要不你來講講。CLU:其實我們在產品立項的時候,出發點並不是語言學習。回到剛剛說的,我們就是為了給我的乾女兒解答問題——這是一切的種子。慢慢我們會意識到,圖像會跟我們的生活形成一種「摩擦」。也就是說,通過與現實世界中的物品產生摩擦,可以強化記憶點。這些記憶點結合當時所處的場景以及全新的單詞或事物進入大腦時,我們對這些資訊的記憶會更加深刻。我們在日常生活中觀察到,人從小時候起就有天然的好奇心,會自然地記住所有新鮮的東西。比如去到日本,儘管我們可能不會說一句日語,但會說「謝謝」這種簡單的話和一些詞。或者描述可愛的事物時,會用到「卡哇伊」這樣的詞,因為這些東西對我們而言有新鮮感。所以,我們在立項開始就沒有定位為一個單純學習英文或者單詞的產品。並且根據我們的觀察、使用者反饋,還有實際落地的情況來看,我們在做的一件事情就是把接觸一個新的語言的這個門檻降低,讓大家會更感興趣。對一個語言的這種感興趣程度提高了,然後慢慢的,大家自己會再去找到一個更加系統化學習的方式。APPSO:目前接到過那些印象特別深刻的使用者反饋嗎?@61:這個我可以來說一下。我之前的一個 mentor 有個上小學的女兒。測試階段我給了他一個兌換碼,他就帶著女兒用 iPad 玩 Capwords,把家裡所有東西都掃了一遍,甚至還掃了他爸的光頭(笑)。第二天,他爸來跟我反饋,說女兒居然把昨天掃到的所有單詞,都寫在了自己的日記本上,還自己開始複習了。接下來幾天,女兒每天放學回家的第一件事,不是玩蛋仔派對,而是拿著 iPad 在家裡到處找「還有什麼沒掃過的」。DTD:有一些使用者的反饋我確實印象很深,我看過一個使用者說這是他用過最不像 AI 的 AI 產品,還有一個說這是他今年用過最溫暖的 AI 產品。這也就是我們想達到的效果。APPSO:確實,模型完全融入到了使用過程中,AI 的存在感並不強。你們在研發的時候碰到過什麼挑戰嗎?CLU:其實我覺得 AI 還是有一些邊界和條件,但是 AI 本身的這種判斷力和我們人本身的一些常識,其實是差不多的。比如我們之前測試過,一杯棕色的液體,AI 會識別成為咖啡,但是如果我親手做的這杯飲料,我就知道它其實是涼茶,那識別結果就跟我的認知不符。但這並不是 AI 的問題,只是誤認確實會出現。所以我們在設計的時候加了調整項,如果系統識別出來的結果和認知不符合,使用者可以輸入調整成正確的物品。DTD:關於識別速度上的問題,其實大模型都需要時間。把圖像傳過去,再回傳資料回來,整個過程其實是有五六秒時間的。去年我們第一個版本發出來,我們一起玩的時候感覺沒什麼問題,大家都覺得非常神奇。尤其是我老婆和女兒都覺得太厲害了。但是我自己在用的時候,還是覺得那個 6 秒鐘很煎熬。後來我們最佳化了一些提示詞,調整了圖片的大小,通過各種互動上的設計來減少使用者的感知,把這個時間藏在不同的互動形式後面。所以我的理解是從體驗層面,去解決一些目前模型本身解決不了的問題。CLU:還有一個是你會看到當一個物品的識別完成之後,會有一個被撕下來的貼紙的效果,我們當時就想說做成一個把現實世界裡的物品,從貼紙上摳下來的效果。在摳的過程中,其實已經在做完整的載入了,只是使用者沒有意識到,最後就可以有一個很絲滑的體驗。圖片來自:小紅書@DTD.STUDIOS我相信到最後,AI 肯定是融入或者變成一個基建,不存在說要體現具體的技術實現,使用者只需要關注 AI 帶來的效果就好了,而且這個結果是使用者所期待的,甚至超出期待的。 (APPSO)