戎马丹心传方略 ——葛振和方略书院的故事

admin 338 2025-04-05 20:55:55

拜登當選為美國帶來改變,氣象也許一新,但療傷止痛如同等待計票結果,需要時間與耐心。

這實際上是在說,我們確實面臨著潛在的、也許是暫時的糧食短缺。部長敦促我們行為理智,只購所需。

戎马丹心传方略 ——葛振和方略书院的故事

斯圖加特大學的研究人員發現,浪費的食物中只有5%來自超市,即每人每天約30克。來自農業部門和工業部門的不必要的食物浪費量,比商業部門要高一些,在德國佔總量的17%。事實上,假如沒有浪費,這是一個非常明智的選擇。克勒克納還說,「我們購買的很多東西最終都會被扔進垃圾桶。她還表示,囤積糧食既不合邏輯,又自私自利。

任何人買上幾個月的意面、罐頭食品、果汁、超高溫消毒牛奶、大米、衛生紙等,都只是在對沖潛在的市場波動。簡而言之,糧倉是上帝給人類最好的饋贈。甚至習近平後來為了擴張自己的權力,打破中國領導人十年任期的限制,更緊縮言論空間,讓問題更為雪上加霜。

同時共產黨一言堂式的統治模式,不可能放寬輿論控制,結果當然是成效不彰。中國共產黨政府並不是不知道這樣的問題,也曾經試圖解決這種情況,以平衡城鄉差距,解決農民工的問題。這種吸血式的經濟發展模式,廣泛出現中國的二線、三線城市之中。中國共產黨政府雖然長期強調自己也是依法治國,但是所有人都知道中國就是一個人治的社會,各級官員仰賴個人關係與彼此的利益勾結,從中央一層接著一層往下,直到最基層的地方官員,形成各個派系與小集團,這從周永康與薄熙來的關係,就可以看出這種模式。

Photo Credit: Reuters/達志影像 這種情況其實在中國層出不窮,已經擁有較多資源的城市並不會分享這些資源,以平衡城鄉差距,反而為了避免自己手上的資源被大量農民工稀釋,而興起地域保護主義。在擁有言論自由與議會監督的台灣尚且如此,在中國的情況就不問可知。

戎马丹心传方略 ——葛振和方略书院的故事

堵塞的言路讓中國的知識份子很少能就這個問題提出建言,腐敗的官僚系統又讓情況更為雪上加霜。但任何城市都無法毫無限制地收納大量人口,這會導致城市的福利制度與基礎設施快速崩潰,唯一的方法就是限制城市居民的資格,因此中國在改革開放以後,有很長一段時間戶口二元制度變的更嚴厲。中國社會的知識份子們也在緊縮的言論環境中,努力提出警告。習近平雖然整肅了薄熙來,拉下了許多地方官員,但只是換上另一批的地方諸候而已,習近平甚至還默許這些人的違法行為來換取效忠,整體來說是飲鴆止渴,這些在習近平羽翼下建立自己小王國的地方官員,未來恐怕會更加難以節制。

如北京驅逐「低端人口」就曾引來輿論的強烈批評,中國共產黨政府還不斷宣傳正在全力改善農民工的待遇,強調對農村環境的重視,甚至嚴禁突顯農民工悲慘遭遇的影視作品。一旦未來習近平的權威在內憂外患下,進一步受到各方的質疑與挑戰時,習近平是否還能有效控制這部龐大又陳腐的統治機器,可能是未來最值得觀察的問題。更清楚這種地方勢力往往與貪污腐敗勾結在一起。中國共產黨執政以後,長期施行戶口二元制度,嚴格區分城市戶口與農村戶口,這一開始的原因是要避免農村戶口四處移動,形成所謂的「盲流」,並讓農村可以維持一定的勞動人口

「這就如同人類一路走來看到的歷史不平等。另一種則是審視「判決理由」,法官在判決書詳述的心證,如調查結果、採信哪些證據、證據效力、法條依據等。

戎马丹心传方略 ——葛振和方略书院的故事

由於目前愛沙尼亞並沒有出現相關法規,這個突破仍是「只聞樓梯響」。即便這些偏見已長久存在,但AI可能更強化不平等,因為人們會在毫無所覺下,信任科技工具的「客觀」訊息,對陌生人打分數。

但若我們在乎法官為什麼、如何做出裁決,依照目前技術和愛沙尼亞計畫,AI所產出的可能只有答案,但沒有理由(或較簡式的理由)。不過,李建良特別澄清:「媒體報導後,我們研究團隊成員曾請教愛沙尼亞法界人士,目前所知這是數位政府計畫的一部分,但應該還只停在『計畫』階段。做為法官小幫手,AI似乎確實能發揮一定程度的「鷹眼」,預測危險性。COMPAS系統被抨擊帶有種族歧視,有色人種更容易被預測為高再犯率。儘管AI尚未披上法官袍,但愛沙尼亞構想彷彿是驚天一雷,預示出可能的未來圖像。根據報導,AI法官將處理小額民事訴訟案件(少於7000歐元,台幣約24萬),由原告方輸入訴訟對象、金額、提告理由等。

許多人或許有同樣的好奇:AI當法官究竟行不行? AI法官的極限:真能做出適當判決? 李建良分成不同層次來討論.行不行有兩層涵義:能力上行不行、規範上可不可以。總地來說,理性、客觀幾乎是AI的最大光環,以準確一致的邏輯做判斷,不受法官個人情緒與好惡影響。

這形成了第一重挑戰:若AI法官無法清楚說明理由,我們如何檢視它的判決好不好?有沒有瑕疵? AI法官的兩面刃:沒有情感 vs. 客觀理性 有些人也質疑,AI的精準、一致可能反倒是弱點。那麼下一步,AI有可能獨當一面坐上審判席嗎? 愛沙尼亞的AI法官計畫,似乎就朝著這個方向前進。

圖說設計:劉芝吟、林洵安 不過,AI派並沒有全輸。這項超級計畫如果成真,「法官不是人」恐怕就要從罵人話變為描述句了。

好比引發社會矚目的「台鐵殺警案」,這樁尚未確定的爭議案件,引發了司法當局對司法鑑定制度的重視與檢討,而輿論譁然多半是殺人無罪的結論,批評法官「不接地氣」,關於心證過程的討論相對較少些。法律事務涉及事實認定、法條解釋與價值規範等多重問題,人工智慧果真已如此高「智慧」,有能力涉入複雜的法律領域? 前兩波人工智慧(AI)希望電腦能像人一樣思考,但皆失敗。2010年至今的AI熱潮由「機器學習」領銜,簡單來說就是我們提供大量資料,讓電腦自己找出事件之間的關聯規則,學會判斷,在許多領域都已比人類預測得更精準。採訪編輯:劉芝吟|美術編輯:林洵安 Alpha Go打敗人類棋王,自駕車躍躍欲試,人工智慧不僅改變世界運作的規則,也逐漸從科技跨入人文社會領域。

哲學家John Searle曾用「中文房」譬喻提出挑戰:如果AI並不了解真正意涵,就算它能和人一樣做出正確回應,似乎也不代表它就有獨立的心靈意識。現行AI不具有真正理解他人的能力,無法實際參與答辯交鋒和開庭審理,而許多訊息來自臨場、個別案例的判讀,並非用數據化與資料化就足夠解釋,背後涉及文化、風俗、情境常識,相當複雜。

」李建良分析: 一種標準是檢視「判決結果」。AI的客觀真的客觀嗎? 但真是這樣嗎?許多研究證實:AI默默戴上了有色眼鏡。

AI系統能從過往大量判例學習,解析法條做出判決。COMPAS會進行大量問答調查,依據被告回答、年齡、過往犯罪紀錄與類型等各項資料,推估被告的再犯率,給出1至10的危險指數,最後由法官決定被告服刑的長短。

首先,技術可能超前突破,讓AI未來也有能力寫判決書、說明論證。」 在美國,近年法院已廣泛運用「COMPAS」(Correctional Offender Management Profiling for Alternative Sanctions,替代性制裁的罪犯矯正管理分析)系統,這是一套由商業公司開發的AI,幫助法官評估被告的再犯風險,作為量刑的準據。另外若拿現行制度相比,美國陪審制同樣只宣告:「陪審團認為無罪」,不會附上理由。Photo Credit: 研之有物 中研院李建良特聘研究員說:「將AI應用到法律訴訟其實並非未來式,而是行之有年的現在式。

亞馬遜招聘、蘋果信用卡信貸系統都曾被發現隱含性別差別待遇。更何況所謂的情境判斷,經常也會造成主觀性偏誤,《美國國家科學院院刊》(PNAS)研究發現,接近午餐時間法官對假釋認定較嚴格,用餐休息後,假釋審查就變寬鬆了。

換言之,假如重視結果,那不難想像AI法官有能力透過歸納、類比分析對案件做出判決。第一層次是「可能性」問題:AI法官足以擔任人類法官的角色嗎?更直白地問:AI真有那麼厲害,能夠做出好判決? Photo Credit: Shutterstock / 達志影像 AI法官現在的智慧足夠判斷不同的文明倫理價值了嗎? 要確認AI的能力,首先我們得問:什麼是好判決? 「這牽涉社會對法院判決的評斷標準。

換句話說,隔壁鄰居摔壞你的iPhone,你一狀告到法院,會由AI判定誰勝訴,鄰居該賠你一台手機或折價金額。有研究指出,AI判定為高風險者,63%在交保期間犯罪,其中5%犯下性侵或謀殺。

上一篇:中车唐山公司获阿根廷铁路史上最大内燃动车组订单
下一篇:炫“冀”寻根:②锤炼篇
相关文章