轉變的開始 我在2023年開始使用 AI 工具協助處理工作後,逐漸把心思轉向可以使用 AI 開發的應用。最直接的是建置一個整合多國政府開放資料庫的研究平台,目的預測全球科技發展趨勢,同時我也開發一個半自動化工作流程,讓例行性的法遵工作由AI自己執行。 這樣的經驗讓我看見一個現象:從電腦、通訊、網路到人工智慧,每一波科技進步都在做同一件事—降低資訊門檻,讓人無法利用資訊不對稱剝削他人。 因為完全沒有工程師的相關背景,我在2025年底到現在開發的平台,其實一直讓我有許多挫折,可能是硬體資源不足,也有可能是軟體資源不足,還有自2023年就被引發的焦慮與挫折,非常需要與「真實的人」交流,而很感謝有一個「AI取暖會」的社群活動可以讓工程師與非工程師的人可以實際面對面交流。 孤獨與挫折 這一年多來,我也經歷很多挫折。沒有工程師背景,我在開發過程中遇到硬體資源、軟體資源的瓶頸,還有從2024年就開始累積的焦慮。最難的是一個人做決定時的無力感—我需要的不是更多教學或是引發焦慮的文章,而是有人說「我也遇過這個問題」。 直到我發現「AI取暖會」。 技術社群的力量 第一次參與時,主辦人 Jeremy Lu 分享他的個人經驗與工作方法。我學到把單一 Agent 拆成5、6個 Agents,避免不同領域知識交叉污染。第2次聚會, 一位工程師 分享怎麼用 AI 與 Figma 與客戶一起製作網站,讓 AI 成為工作坊的一員,這些是真正的實務。 這場分享也讓我想起去年在鴻海科技展看到的案例:他們開發可以在診間與醫生共用的生成式 AI平臺(用於乳癌患者諮詢用),患者與醫生間多一個提供意見的第三方角色。這才是 AI 應該被使用的一種方式。 我的分享與未完的對話 參與2次後,我決定主動分享 自己的經驗 。站上台前我很害怕,畢竟我離開網路治理社群已經有一段時間,很久沒公開分享自己的經驗,而昨天的分享定位只有實務經驗,沒有複雜的技術或是實務展示。 現場工程師問我的問題很有意思:不是「你怎麼做到的」,而是「責任歸屬是誰」、「使用資料的規定與限制是什麼」。這說明了一件事:技術問題的背後涵蓋公司治理問題。 但我也意識到有些重要的東西沒有回答完整,特別是安全性。 沒完的答案:安全 前幾天發生的 Axios供應鏈安全事件 讓我很憂慮。我的平台串接開放政府資料,但我看不出來哪個API裡有什麼後門。AI 會執行使用者...
歐洲資料保護委員會(EDPB)在2026年2月發布的刪除權調查報告,給我一個很難忽視的數字:他們聯合調查了將近8,000家企業,回應率不足一成。 這個數字不只是個資法遵落差的指標,它更像是一個訊號:當監管機關開始大規模橫向調查,沒有回應不代表豁免,代表的是還沒輪到你。 更讓我在意的,是這場調查背後的制度性涵義。EDPB首次明確將備份系統納入刪除義務範圍,這意味著企業不能再把「刪除」當成一個資料庫指令的問題,而必須把它理解成一個系統架構問題。這一步看起來是資料保護法的問題,但它實際上開始觸碰AI系統設計的核心:一個以個人資料訓練的模型,要怎麼「刪除」某一筆資料的影響? 這正是我想在這篇文章討論的事:三個原本分開運作的監管領域——競爭法、資料保護、人工智慧監管——在近年間,已經開始彼此滲透,形成臺灣中小企業難以用過去的法遵邏輯應對的複合壓力。 競爭法:從行為合謀到架構審查 全球反壟斷執法在過去一年發生了一個根本性的轉變,而它的影響遠比多數企業意識到的更廣。 過去的競爭法問題大多有一個清楚的前提:企業之間是否彼此溝通、達成協議。現在這個前提正在鬆動。美國加州的反壟斷法在2026年1月修訂後,正式將「競爭對手共同使用同一定價演算法」納入審查範圍,即使業者之間沒有任何直接溝通,只要共享了同一套系統的輸出結果,就可能被認定為形成協同定價的制度環境。 這個轉變的理論基礎來自稍早的RealPage租金案:多家房東將非公開的即時租金資訊提交給同一平臺,平臺以演算法生成建議租金。法院的判斷是,不需要租東彼此達成共識,這個「共同使用同一個資訊中介」的架構本身,已經可能構成協同定價的條件。 紐約州對Instacart演算法定價機制的調查,和歐盟對Google AI內容抓取的反壟斷調查,都在同一個方向上進一步延伸。歐盟這個案子格外值得注意:Google被指控在未取得授權的情況下,以爬取網路出版商內容的方式訓練AI模型並生成搜尋摘要。這是競爭法第一次正面觸及AI訓練資料取得的合法性問題——從反壟斷法的角度,不是從著作權法。 對臺灣企業的直接影響在這裡:如果你的公司使用第三方定價工具、需求預測平臺或市場分析服務,你需要知道這些服務是否同時服務你的競爭對手,以及這些系統是如何處理競爭敏感資訊的。這不再是IT部門的採購決策,而是一個具有競爭法風險的經營選擇。 歐盟《數位市場法》(DMA)和英國《數位...