作者Player01 (Player2(請投入硬幣))
看板Stock
標題[新聞] ChatGPT幫律師寫文件 結果一堆假判例
時間Sun May 28 19:17:31 2023
-------------------------------發文提醒----------------------------------
1.發文前請先詳閱[新聞]分類發文規範,未依規範發文將受處份。
2.連結過長請善用
https://bit.ly/ 等縮網址服務,連結不能點擊者板規1-2-2處份。
3.心得/評論請盡量充實,心得過短或濫竽充數將以板規 1-2-3、4-4 水桶處份。
4.發文請依照格式文章標明段落,不符合格式者依4-1刪文處分。
------------------------ 按ctrl+y
可刪除以上內容。 ----------------------
原文標題:
※請勿刪減原文標題
ChatGPT幫美國律師寫法庭文件 結果發明一堆假判例
原文連結:
※網址超過一行過長請用縮網址工具
https://ynews.page.link/PDVLX
發布時間:
※請以原文網頁/報紙之發布時間為準
2023年5月28日 週日 上午11:50
記者署名:
※原文無記載者得留空
原文內容:
聊天機器人ChatGPT近半年來爆紅,號稱不久後將能取代一堆文組工作;但科技專家也紛紛警告,ChatGPT可能自行編造內容,成為假新聞來源。美國一名律師在準備法庭文件時就讓ChatGPT來寫,結果引用的6個判例裡,沒有一個是真的,在法院紀錄裡根本找不到這些判例。
《紐約時報》27日報導,美國紐約一家律師事務所的律師史瓦茲(Steven A. Schwartz)協助客戶馬塔((Roberto Mata)打官司。馬塔自稱在2019年8月搭乘哥倫比亞航空公司(Avianca)班機從薩爾瓦多飛往紐約時,被空服員推的推車撞到膝蓋而受傷。事隔多時,他才打算控告航空公司。
曼哈頓法院今年3月駁回本案,稱訴訟時效已過。律師史瓦茲於是提交了一份10頁的文件,引用超過6項判例,包含旅客馬丁尼茲( Martinez)控告達美航空、旅客奇赫曼(Zicherman)控告大韓航空、旅客瓦吉斯(Varghese)告中國南方航空等,針對訴訟時效長篇大論了一番。
看起來很厲害,問題是,沒人找的到這份文件裡引用的判例。航空公司的律師找不到,法官本人也一頭霧水。法院訴訟紀錄上會載明判案的法院、法官、判決書編號和日期,照理說不可能找不到;航空公司委任的律師發現,史瓦茲提供的判例看起來似乎是出自聊天機器人的手筆。
史瓦茲本月25日在宣誓書裡承認,他使用了ChatGPT來準備法律文件。已經在紐約執業30年的他對法官表示,他不是故意要欺騙法庭或航空公司,這是他第一次用ChatGPT來準備開庭資料,先前從沒用過,所以不知道ChatGPT寫的東西「可能是假的」。
例如ChatGPT引用的「奇赫曼訴大韓航空」判例,聲稱是美國第11巡迴上訴法院2008年的判決。美國第11巡迴上訴法院的書記官調查後發現,ChatGPT提供的案卷編號確實存在,但是案件本身完全不相關。ChatGPT又用他編造的大韓航空去驗證另一起「瓦吉斯訴中國南方航空」,結果實際上也是沒這回事。最終,ChatGPT引用的判例裡,有6個是假的。
上當的律師史瓦茲對法官表示,他非常後悔依賴ChatGPT來工作。他甚至還有問ChatGPT說,「你提供的瓦吉斯訴中國南方航空是真的案例嗎?」ChatGPT回答「是的」。
但在史瓦茲進一步追問「你的資料來源是哪裡」時,ChatGPT道歉說,「對於先前的混淆,我深感抱歉」,然後提供了一份法律引證。史瓦茲再問,「你提供的其案例是假的嗎?」ChatGPT堅持:「不,我提供的其他案例都是真實的,可以在有公信力的法律資料庫裡找到。」
史瓦茲律師可能找不到那些判例,但本人可能將要成為新的案例。法官已下令6月8日舉行聽證會,針對律師提交這份充滿假判例的法律文件,討論潛在的制裁措施。
心得/評論:
※必需填寫滿30字,無意義者板規處分
有用chat gpt的人應該會有發現
其實搜尋一些消息會是亂湊的
還有些更誇張直接就是掰出來的資訊
如果沒有特別查證會過度相信他的統整資訊
不知道目前這個問題能不能解決
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 49.216.129.232 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/Stock/M.1685272653.A.37D.html
1F:推 pat1006 : 資料庫更新 05/28 19:19
2F:推 springman : 寫得很通順,但正確性需要仔細驗證。 05/28 19:20
3F:推 ho83leo : 笑了,自己要被告。 05/28 19:21
4F:推 mioco : 找不到就自己編一個 被抓包還會先強辯 很人性 05/28 19:24
5F:→ pikaaco : 這種敢用chatgpt幫寫也是很勇 05/28 19:24
6F:→ Kobe5210 : 你已經違規超貼新聞了,下次不用那麼興奮一直貼, 05/28 19:24
7F:→ Kobe5210 : 把時間留給其他事吧 05/28 19:24
8F:推 keyofdejavu : 會狡辯,已經是強AI了,歐印 05/28 19:26
9F:推 apple123773 : 居然訓練成蘇東坡了 怕 05/28 19:27
10F:推 zakijudelo : 不要打醒本板的AI炒股夢喔 05/28 19:29
12F:→ JuiFu617 : 估計用免費的gpt3.5 05/28 19:32
13F:噓 KadourZiani : 沒差吧修改一下參數就好了別來黑啦 05/28 19:32
14F:→ xuane : 可憐,這位律師提出前根本沒看過書狀吧 05/28 19:37
15F:推 rrroooqqq : 這問題要解決不難吧,只要有專門針對法律去訓練, 05/28 19:37
16F:→ rrroooqqq : 應該就可以改善很多了 05/28 19:37
17F:推 lianli1024 : 用完gpt 在用google選我正解 05/28 19:38
18F:推 permanent27 : 之前查專利號也是隨便給,還是要自己檢查過 05/28 19:39
19F:→ ikachann : GPT真的很有自信把一件胡扯的事情說成像真的一樣 05/28 19:39
20F:→ JuiFu617 : 這律師通用模型拿去搞專業領域好像誤會了什麼 05/28 19:40
21F:→ JuiFu617 : 跟人一樣不懂的也會胡說八道,但是chatgpt比較適合 05/28 19:41
22F:→ JuiFu617 : 作文整合,不適合直接搜索結果 05/28 19:41
23F:推 Kydland : 為什麼我覺得是這位律師亂掰亂寫一通 然後推給 05/28 19:41
24F:→ Kydland : 是chatGPT的錯? 05/28 19:41
25F:推 sazabijiang : 我確定chatGPT會亂掰內容。我虛構兩個人名,問它 05/28 19:42
26F:→ sazabijiang : 誰比較厲害,他還是煞有其事地完成分析。 05/28 19:42
27F:→ JuiFu617 : 美國法律很重視判例,但是判例其實到各大法律數據庫 05/28 19:43
28F:→ JuiFu617 : 搜索會比較完善吧 05/28 19:43
29F:推 pponywong : chatGPT 本來就是文本產生器 你怎麼會認為是真的 XD 05/28 19:43
30F:→ dogfacehoho : 寫的很真但內容不實XD 05/28 19:43
31F:推 jainyoyo : 就網路資訊很多是不正確 05/28 19:45
32F:噓 NotGiveUp : 靠chatGPT寫完,自己都不用驗證內容嗎...... 05/28 19:46
33F:推 nodnarb1027 : 文組浮木 05/28 19:46
34F:推 JuiFu617 : 這麼懶的律師文件生成後判例不去餵狗,你覺得他會 05/28 19:47
35F:→ JuiFu617 : 用付費gpt4嗎? 05/28 19:47
36F:推 steak5566 : 文組:看吧 我們還是很重要 05/28 19:49
37F:推 ltflame : 沒有搜尋功能當然只能用掰的,用錯工具怪工具喔 05/28 19:51
38F:推 dos01 : 之前就說過好幾次了 這東西就尬聊APP 他會為了跟你 05/28 19:51
39F:→ dos01 : 尬聊胡扯 05/28 19:51
40F:→ dos01 : 自己用還沒什麼事情 但用到商業上 被告死就是活該 05/28 19:52
41F:噓 Coffeewater : 騙不懂的87 機器人要先訓練過才能用啊 05/28 19:53
42F:推 mooto : chatGPT是聊天AI 不是工作AI 05/28 19:54
43F:推 saygogo : 這律師很故意 怎麼可能不知道 05/28 19:58
44F:推 bj45566 : 這就是我最討厭 ChatGPT 的地方 -- 一本正經的胡說 05/28 19:58
45F:→ bj45566 : 八道 05/28 19:58
46F:推 ganninian : 這律師是腦袋撞到?不怕被disbar? 05/28 19:58
47F:推 mdkn35 : 完了 GPT空 05/28 20:05
48F:→ laechan : 我coding mud時最喜歡gpt跟我鬼扯,我就是需要它鬼扯 05/28 20:06
49F:推 Alphaz : 果然越來越像人類 唬爛嘴 05/28 20:06
50F:→ laechan : 要懂得它好用的地方,而且不要誤用它,專業的事問專家 05/28 20:06
51F:推 ccjjea : 我之前查蜘蛛,他編了一堆學名新品種,還跟我說都是 05/28 20:07
52F:→ ccjjea : 真的,真的扯 05/28 20:07
53F:→ huabandd : chatGPT跟GPT 4.0都一樣,連手續費都會算錯 05/28 20:08
54F:→ huabandd : 給他算式了算出來答案還能錯,真的無言 05/28 20:09
55F:推 CGDGAD : chatgpt只適合拿來談談心 05/28 20:09
56F:推 clubee : 笑死人 準備開告chatgpt 05/28 20:12
57F:→ koexe : ChatGpt還是需要人去判斷啊 05/28 20:14
58F:→ mooto : 不能說chatgpt只適合尬聊 而是現在生成式AI的訓練方 05/28 20:14
59F:→ mooto : 式是封閉的 你餵給他屎當然就給你亂回 05/28 20:15
60F:推 HaHaPoint : 果然是AI 相當人性化 人類的壞習慣也都學會了 05/28 20:18
61F:推 DDDDRR : 人工智慧結果要人類去判斷 現在還剛開始而已呀 05/28 20:20
62F:推 saygogo : chatgpt技能樹目前沒有點在算術,不過這問題不大 05/28 20:25
63F:噓 eddiefunnyyy: 假新聞找三明自就好,專家中的專家 05/28 20:25
65F:推 bj45566 : ChatGPT 就是沒辦法從語境模式順利切換的符號運送 05/28 20:26
66F:→ bj45566 : 模式,這問題很大好嗎 05/28 20:26
67F:→ saygogo : 我估計早晚會去點數學的科技樹的 不難 05/28 20:27
68F:→ ferb : 比小學生還不如! 05/28 20:27
69F:推 TyuzuChou : 有玩chatgpt的應該都知道AI很會唬爛 05/28 20:28
70F:推 sabishikuma : 結果本人成為新的案例XD 05/28 20:28
71F:推 bj45566 : 馬上就有人秀出實測圖了 wwww 05/28 20:29
72F:→ welly7566 : 鳥 05/28 20:30
73F:推 bj45566 : @saygogo:你去查一些 AI 大師級的發言,就會知道這 05/28 20:30
74F:→ bj45566 : 不是點不點數學科技樹的問題 05/28 20:30
76F:→ bj45566 : 這是現在的 AI 架構和人類大腦基本上的差異 05/28 20:31
77F:→ ferb : 明明他自己答案就有108,然後還說沒有108 05/28 20:32
78F:→ ferb : 我被它搞到以為自己算錯了 05/28 20:32
79F:推 bj45566 : @ferb:呵呵呵呵 05/28 20:33
80F:推 necrophagist: 寫完檢查是義務啊 連檢查文獻都要推給ai? 05/28 20:35
81F:推 bj45566 : 人腦可以很清楚的辨別自己正在做數字與符號運算,現 05/28 20:36
82F:→ bj45566 : 在的生成式對話 AI 就是不能 05/28 20:36
83F:→ bj45566 : *運算 05/28 20:37
84F:→ fakejoker : 這不是廢話嗎 05/28 20:39
86F:推 PTTVERTWO : 說4.0 比 3.5 強很多的資訊,會不會也是3.5 唬爛瞎 05/28 20:42
87F:→ PTTVERTWO : 掰的? 05/28 20:42
88F:噓 abc12812 : 哪位律師敢給ChatGPT寫文件? 不怕洩漏客戶秘密是嗎? 05/28 20:45
89F:推 reyes2222 : 就是這樣,明明不知道,也可以胡扯的像真的 05/28 20:46
90F:→ JuiFu617 : 為什麼用f大的同問題去問gpt,發現沒有回答很差啊 05/28 20:46
91F:→ JuiFu617 : gpt很明確知道自己是在做數字與符號運算 05/28 20:47
92F:推 bj45566 : 這是可以用增加語境的方式訓練出來的 05/28 20:50
93F:→ bj45566 : 因為 GPT-4 還是會出現給了公式仍然算錯的情況 05/28 20:51
94F:推 silentence : 很認真盡責地講完幹話 05/28 20:52
95F:→ wind2k : 我上次問ChatGPT哪裡有素食吃 給我一堆沒聽過的 05/28 20:52
96F:→ falcon11 : 哪來的白痴文組= = 05/28 20:53
97F:→ JuiFu617 : 因為gpt不是搜尋用的,你問素食吃根本問錯人 05/28 20:54
98F:推 cutbear123 : chatgpt大部分都瞎掰 05/28 20:54
99F:→ cutbear123 : 現在確實是不太實用的狀態 只是未來性可期 05/28 20:54
100F:推 becksue26 : 律師準備告openai產品提供錯誤資訊嗎 05/28 20:54
101F:→ cutbear123 : 重點是一本正經的瞎掰 沒有相關知識還會被騙 05/28 20:55
102F:推 psynanako : 靠 他自己瞎編還不註明喔 那這樣是不是他給資料 附 05/28 20:55
103F:→ psynanako : 上引據比較好 他無法辨別真假資料咩 05/28 20:55
104F:→ JuiFu617 : 用bing搜尋啊,會給你註明出處 05/28 20:56
105F:推 ariadne : 就基本的gigo來源資料有問題當然得到垃圾結果 05/28 20:56
107F:推 bj45566 : 國一程度的聯立方程式問題 05/28 20:59
108F:推 ckp4131025 : 老實說這個加一個相關資料庫的plug in就解決了 05/28 20:59
109F:→ vicklin : 本來就會亂掰內容,理工的也會 05/28 21:01
110F:→ vicklin : 以現狀免費版本完全贏不了嫻熟的文字使用者 05/28 21:02
111F:推 EddieWuRJJ : 法律個案性太強 短期間AI應該無法取代 05/28 21:03
112F:噓 deepdish : 越黑越噴啦 笑死 都不敢寫 do not pay 05/28 21:06
113F:推 QQFU : 黃董一直吹,股市一直漲,應用零 05/28 21:06
115F:推 yisky : 法律邏輯跟理組邏輯差很多,要取代很難啦!頂多幫 05/28 21:07
116F:→ yisky : 你潤稿,要引用還是太難 05/28 21:07
117F:→ deepdish : AI人工智慧應用|全球首位AI律師在美國伸張正義,Do 05/28 21:07
118F:推 justdoit : 不要瞎掰好嗎 05/28 21:08
119F:推 bj45566 : 「不能順利切換」=/= 「完全不能切換」 05/28 21:09
120F:推 A1pha : 每次我請他附上資料來源,他的網址點開都不是他說的 05/28 21:09
121F:→ A1pha : 資料= = 05/28 21:09
122F:→ MTKer5566 : 比較適合用來產生稿子給蔡英文唸 05/28 21:09
125F:推 brain9453 : AI詐騙仔 05/28 21:12
127F:推 bj45566 : 而是指切換的效率很差,切換後的運送力很差 -- 人 05/28 21:13
128F:→ bj45566 : 類用二十幾年前的 AI 技術就已經寫出在算方程式或 05/28 21:13
129F:→ bj45566 : 解微積分方面遠遠超出常人能力的 Mathematica (如果 05/28 21:13
130F:→ bj45566 : 是比速度,那麼連人類的高手也比不過) 05/28 21:13
131F:推 yisky : 美國的法律不清楚,但台灣很多法條設計上就自相矛 05/28 21:13
132F:→ yisky : 盾(感謝台灣立委),要取代不可能 05/28 21:13
134F:→ deepdish : The Robot Lawyer Resistance with Joshua Browder 05/28 21:13
135F:→ bj45566 : *運算力 05/28 21:14
136F:→ bj45566 : 問題在於現在即便是 AI 圖靈獎得主的宗師級人物, 05/28 21:16
137F:→ bj45566 : 都沒辦法讓生成式對話 AI 擁有 1/10 Mathematica 05/28 21:16
138F:→ bj45566 : 的符號與數值運算能力 05/28 21:16
139F:推 YLTYY : Ai 不會說謊 05/28 21:18
141F:→ JuiFu617 : 確實不會說謊 05/28 21:22
142F:噓 deepdish : 市場就是有需求啦 問題就是濫用法律欺壓老百姓 05/28 21:23
143F:推 vicklin : 市場有強烈需求不過算圖應該會比文本更實用 05/28 21:26
144F:推 bj45566 : @JuiFu617:ChatGPT 只是在你這個問題上沒說謊而已 05/28 21:34
145F:→ bj45566 : 啦 XDDD ChatGPT 很會臉不紅心不喘地扯漫天大謊好 05/28 21:34
146F:→ bj45566 : 嗎 05/28 21:34
147F:→ bj45566 : *也比不過它 05/28 21:37
148F:推 genest666 : AI越來越像人會唬爛 噴! 05/28 21:37
149F:推 Kouson : chatGPT已經失去公信力了 盡是瞎掰 有時還死不認錯 05/28 21:38
150F:噓 deepdish : 訓練模型正確性只剩下時間問題 一堆不懂裝懂 05/28 21:41
152F:→ deepdish : 《TECH TALK 科技大哉問》現在最HOT的職業 AI訓練師 05/28 21:41
153F:→ deepdish : 538 views Mar 11, 2021 05/28 21:41
154F:推 bj45566 : 補充:「集成」是對岸用詞,我國通常用「整合」, 05/28 21:46
155F:→ bj45566 : 對應於英文的 "Integrated" -> 對岸講的「集成電路 05/28 21:46
156F:→ bj45566 : 」 == Integrated circuit == IC 05/28 21:46
157F:推 antijacken : Chatgpt都瞎掰啊 我問水滸傳108星有誰 他媽的連 05/28 21:47
158F:→ antijacken : 宋慶齡都跑出來 05/28 21:47
159F:推 bj45566 : 所以 GPT4 的回答是它沒有辦法整合 Mathematica 的 05/28 21:48
160F:→ bj45566 : 符號與數值運算能力 05/28 21:48
162F:→ deepdish : LawGPT?: Using AI to Modernize Judicial Systems, 05/28 21:51
163F:推 bj45566 : ChatGPT 本質上是鄉民最鄙視最愛罵的「文組腦」 05/28 21:52
164F:→ b9513227 : 聊天機器人是期望有多高智商? 05/28 21:53
166F:→ deepdish : AI來了 LAW變了 05/28 22:02
167F:推 greenpine : 訓練個商業用的好嗎 chatgpt現在還是聊天面向 05/28 22:03
168F:推 terminator3 : 問體育界成員就一堆唬爛的了 05/28 22:03
170F:→ deepdish : 人人都能請 AI 當律師?AI 如何翻轉法律圈生態? 05/28 22:04
171F:推 greenpine : 訓練個法律AI 應該比繪圖AI簡單多了 05/28 22:05
172F:推 alex780312 : 錯用工具XD 05/28 22:15
173F:推 bj45566 : 法學最好比繪圖簡單 =.= 05/28 22:17
175F:→ laechan : 這樣都能收費演講收門徒,看來chatgpt寫講稿真的可行 05/28 22:17
176F:推 gametv : 之前問chatgpt三上悠亞是誰,居然回答是2000年沖繩 05/28 22:18
177F:→ gametv : 縣出生的日本女星、演過大河劇wtf 05/28 22:18
178F:推 zjnovember : 真的很會掰,畢竟原本是尬聊用的模組 05/28 22:21
180F:→ deepdish : How An AI Lawyer Could Fight for You! 05/28 22:35
181F:推 everyheart25: 擁有寫故事的能力無誤 05/28 22:46
182F:推 patrol : 那個AI寫的故事其實有點無聊... 05/28 22:53
183F:推 patrol : 請AI講笑話也很難笑,文組可能還能苟活一段時間 05/28 22:57
184F:→ patrol : ,大概暫時只能取代寫財經新聞的記者 05/28 22:57
185F:→ acgotaku : 免費仔又在搞笑 05/28 23:05
186F:推 b22072117 : 用 chaptgpt 寫程式還會有很多 compile error 05/28 23:17
187F:推 jo4 : 這種是有付費連網的嗎? 05/28 23:37
188F:推 bj45566 : 現在最抖的應該是翻譯、繪圖師攝影師、財經記者和小 05/28 23:40
189F:→ bj45566 : 模 05/28 23:40
190F:推 bj45566 : 不過小模很容易轉行繼續賺... 青春就是本錢,如果外 05/28 23:42
191F:→ bj45566 : 型不錯那在任何社會都不怕沒收入 05/28 23:42
192F:→ s860134 : 不意外 你問他小說他自創一堆 05/28 23:50
193F:→ s860134 : 你只要問有關文獻有關的他都會回答錯錯的 05/28 23:51
194F:→ s860134 : 問她生物物種他會自己自創生物 05/28 23:51
195F:→ s860134 : 問他小說她會自己寫劇情回答你 05/28 23:52
196F:→ s860134 : 所以才叫生成式AI阿 無法完全取代搜尋 05/28 23:52
197F:→ qaz12453 : 但就考驗你知識辯證能力啦 無腦一樣被唬爛 05/29 00:00
198F:推 Xpwa563704ju: 白癡XDD 05/29 00:02
199F:推 bj45566 : 所以我還是重度依賴 Google 其次 Google Scholar 05/29 00:03
200F:推 Annahahaha : chatgtp :查資料很麻煩喔,隨便編一編呼嚨一下 05/29 00:21
201F:推 Eric0605 : 問他旅遊地點也都是掰的 05/29 00:29
202F:→ GABA : 給ChatGPT寫五分鐘code要花五天debug 05/29 00:30
204F:→ cheng399 : 林北超想揍爆ai唬爛仔 05/29 00:39
205F:→ cheng399 : 同一個問題可以錯三次,要不是林北失去耐心恐怕可以 05/29 00:40
206F:→ cheng399 : 一直錯下去 05/29 00:40
207F:推 mainsa : 我覺得是一堆人故意去亂訓練把他養壞欸 還是這是他 05/29 01:25
208F:→ mainsa : 們演算法的缺陷 競爭對手有暗地出手 05/29 01:25
209F:推 bj45566 : 樓上想太多了,現在的 GPT-4 已經比上一代進步很多 05/29 01:32
210F:→ bj45566 : 很多了,問題不太可能出在惡意外部人士 05/29 01:32
211F:→ bj45566 : 這是 GPT 內在性的缺陷 05/29 01:33
212F:推 bj45566 : 不過歐美人和東亞人看待「缺陷」的態度相差蠻大的, 05/29 01:40
213F:→ bj45566 : 可以想像為何歐美對它有那麼多熱烈掌聲,或許 GPT 05/29 01:40
214F:→ bj45566 : 的前景真的是很光明燦爛(非反串) 05/29 01:40
215F:推 L1ON : 台灣也一樣 05/29 01:40
216F:推 gbman : 幹!笑死 05/29 01:51
217F:推 gbman : ai真不出答案的還蠻多唬爛的XD 05/29 01:54
218F:推 sidneys : 股點在哪 05/29 01:58
219F:噓 yunf : 像是這種新聞有關於真假的有爭議性的首先就要看誰寫 05/29 06:37
220F:→ yunf : 的是不是真的有這一條新聞都還要先驗證像是這篇就連 05/29 06:37
221F:→ yunf : 署名他都不敢也沒有人管新聞的來源到底是否確有其事 05/29 06:37
222F:→ yunf : !然後出版商是誰經過幾個轉介點當然鄉民之所以是鄉 05/29 06:37
223F:→ yunf : 民就是那份純樸的感覺什麼東西轉進來他都有辦法討論 05/29 06:37
224F:→ yunf : 你們覺得身為一個律師使用AI出庭前難道都不會自己先 05/29 06:37
225F:→ yunf : 查證過嗎?也太低估律師的智商和專業了吧! 05/29 06:37
226F:→ kducky : GPT目前的隱患就是這樣,用權威的語法寫幹話,這問 05/29 07:14
227F:→ kducky : 題滿致命的 05/29 07:14
228F:推 GentIe : 完美無缺 05/29 07:14
229F:推 jen1121 : 亂用就是吹牛機 05/29 07:21
231F:→ rondox : AI具創造力! 05/29 07:50
232F:→ tatty5566 : 笑死 一定是下載到Reddit的廢文 05/29 07:52
233F:推 jorden : 笑死 比唬爛三師還更會唬爛 05/29 08:01
234F:→ iamaq18c : 有玩過的就知道 假訊息假資料甚至明顯錯誤都有 05/29 08:04
235F:推 epicurious : 都跟你說是「生成式」AI了 05/29 08:08
236F:推 flyingdeeck : 設計者又沒給他判例資料庫。。。頂多教他怎麼寫判 05/29 08:27
237F:→ flyingdeeck : 例吧 05/29 08:27
238F:→ flyingdeeck : 有用過都知道,設計者傾向讓AI瞎掰,不論有意無意 05/29 08:28
239F:→ JuiFu617 : 你找烏龍院作者怎麼會問gpt呢?人家是外國人,又不 05/29 08:47
240F:→ JuiFu617 : 能聯網,你至少要讓外國人聯網吧 05/29 08:47
241F:推 fcz973 : 覺卿:台灣應該將AI引進司法 05/29 09:07
242F:推 NeGe56 : 就是不希望你們抄功課的設定呀 05/29 09:14
243F:噓 ToastBen : 它不是搜尋引擎 要說幾次 05/29 09:34
244F:→ JuiFu617 : 真的,一堆人都以為gpt是搜索引擎,又直接問中文問 05/29 09:48
245F:→ JuiFu617 : 題,gpt沒有被餵這些資料,還要翻成英文去搜索,重 05/29 09:48
246F:→ JuiFu617 : 點gpt又不能聯網,你又在那邊嫌難用 05/29 09:48
247F:推 magamanzero : 人家都跟你說是chat了 .... 05/29 09:53
248F:→ magamanzero : 律師是看不懂英文逆 05/29 09:54
249F:推 tw11509 : GPT沒有資料的時候就會用雲的啊,厲害的地方是他不 05/29 09:57
250F:→ tw11509 : 會讓你覺得是編出來的XD 05/29 09:57
251F:噓 eipduolc : 北七喔用這種明顯免責的東西= = 05/29 09:59
252F:→ eipduolc : 這律師牌怎麼考的啊 05/29 09:59
253F:→ eipduolc : 他拿的收入本來就對應他的責任跟風險誒 05/29 09:59
254F:推 fatb : gpt4最大的問題是不知道會亂掰 05/29 10:05
255F:→ TCKenough : 自己的作業自己寫 05/29 10:17
256F:推 zhenglack : 算是法院認證文組能力有問題了 05/29 10:20
257F:推 paul40807 : New Bing:阿我怎麼都沒人用 05/29 10:29
258F:推 ice84man : ChatGTP是文字接龍,不是Google 05/29 10:42
259F:推 a77942002 : 這種AI就是將大量的隨機可能性收束到“趨近”模型跟 05/29 11:03
260F:→ a77942002 : 想要的結果(輸入值) 不要拿來做需要高度正確的事~ 05/29 11:03
261F:推 ecwecwtw : GPT一句抱歉就沒事了,但使用者要自行承擔造假後果 05/29 11:11
262F:推 truevines : 這個包是要OpenAI賠,還是簽名的律師賠? 05/29 11:26
263F:推 bettybuy : GPT真的很會唬爛,唬爛王 05/29 12:01
264F:→ zephyr105 : 看來又是一場大詐騙了 05/29 12:02
265F:推 champion0922: 褻瀆司法的律師 關一關 05/29 12:06
266F:推 lancelot123 : 我用bing GPT在引用資料來源上至少好得多,點開網址 05/29 13:55
267F:→ lancelot123 : 都是正確的,只是編文章的內容相較之下弱得多,沒辦 05/29 13:55
268F:→ lancelot123 : 法長篇大論 05/29 13:55
269F:推 chenpfu0394 : 真“雲“端軟體 05/31 00:00
270F:→ ninggo : 語言模型ai不是專業領域的通用ai.. 06/03 01:48