Интересно Юристка потрапила в халепу після цитування фальшивих справ, створених чат-ботом ШІ

Sepultura_North

Support Gourmet inc
Seller
Ровный
Мес†ный
Регистрация
17 Окт 2015
Сообщения
11.040
Репутация
4.050
Реакции
14.603

BMWRC-news.gif

Юристка потрапила в халепу після цитування фальшивих справ, створених чат-ботом ШІ

3.03.2024

Юристка потрапила в халепу після цитування фальшивих справ, створених чат-ботом ШІ

Адвокатка Чонг Ке з Ванкувера, проти якої зараз розпочато розслідування її поведінки, нібито використовувала ChatGPT для розробки юридичних матеріалів під час справи про опіку над дітьми у Верховному суді Британської Колумбії.
Згідно з судовими документами, Ке представляв інтереси батька, який хотів взяти своїх дітей у подорож за кордон, але був заблокований у суперечці з матір’ю дітей. Стверджується, що Ке просила ChatGPT надати приклади попереднього судового права, які могли б бути застосовані до обставин її клієнта. Чат-бот, розроблений OpenAI, дав три результати, два з яких вона подала до суду.
Однак адвокати матері дітей не змогли знайти жодних записів про справи, попри численні запити.
Зіткнувшись з розбіжностями, Ке повернувся назад.
«Я й гадки не мав, що ці два випадки можуть бути помилковими. Після того як мій колега вказав на те, що їх неможливо знайти, я провів власне дослідження і також не зміг виявити проблеми», — написав Ке в електронному листі до суду. «Я не мав наміру ввести в оману адвоката протилежної сторони або суд і щиро вибачився за свою помилку».
Незважаючи на популярність чат-ботів, які навчаються на великій кількості даних, програми також схильні до помилок, відомих як «галюцинації».
Адвокати, які представляють інтереси матері, назвали поведінку Ке «осудною та заслуговує догани», оскільки вона призвела до «значних витрат часу та витрат», щоб визначити, чи були випадки, які вона цитувала, реальними.
Вони просили присудити спеціальні витрати, але суддя, який розглядав справу, відхилив прохання, заявивши, що такий «надзвичайний крок» вимагав би «визнання осудливої поведінки або зловживання процесом» з боку адвоката.
«Посилання на фальшиві справи в судових документах та інших матеріалах, переданих до суду, є зловживанням процесом і прирівнюється до надання неправдивих заяв суду», — написав суддя Девід Масухара. «Якщо це не зупинити, це може призвести до судової помилки».
Він виявив, що адвокат протилежної сторони «добре забезпечений» і вже надав «томи» матеріалів у справі. «Тут не було шансів, що дві фальшиві справи проскочать».
Масухара сказав, що дії Ке викликали «значний негативний розголос», і вона «наївно оцінювала ризики використання ChatGPT», але він виявив, що вона вжила заходів, щоб виправити свої помилки.
«Я не вважаю, що вона мала намір ввести в оману чи ввести в оману. Я приймаю щирі вибачення пані Ке перед адвокатом і судом. Її жаль було чітко видно під час її появи та усних пояснень у суді».
Попри відмову Масухари присудити спеціальні витрати, юридичне товариство Британської Колумбії зараз розслідує поведінку Ке.
«Визнаючи потенційні переваги використання штучного інтелекту під час надання юридичних послуг, Юридичне товариство також видало вказівки для юристів щодо належного використання штучного інтелекту та очікує, що юристи дотримуватимуться стандартів поведінки, які очікуються від компетентного юриста, якщо вони це роблять. покладаються на штучний інтелект в обслуговуванні своїх клієнтів», – сказала в заяві прессекретар Крістін Там.
 

BMWRC-news.gif

Юристка потрапила в халепу після цитування фальшивих справ, створених чат-ботом ШІ

3.03.2024

Юристка потрапила в халепу після цитування фальшивих справ, створених чат-ботом ШІ

Адвокатка Чонг Ке з Ванкувера, проти якої зараз розпочато розслідування її поведінки, нібито використовувала ChatGPT для розробки юридичних матеріалів під час справи про опіку над дітьми у Верховному суді Британської Колумбії.
Згідно з судовими документами, Ке представляв інтереси батька, який хотів взяти своїх дітей у подорож за кордон, але був заблокований у суперечці з матір’ю дітей. Стверджується, що Ке просила ChatGPT надати приклади попереднього судового права, які могли б бути застосовані до обставин її клієнта. Чат-бот, розроблений OpenAI, дав три результати, два з яких вона подала до суду.
Однак адвокати матері дітей не змогли знайти жодних записів про справи, попри численні запити.
Зіткнувшись з розбіжностями, Ке повернувся назад.
«Я й гадки не мав, що ці два випадки можуть бути помилковими. Після того як мій колега вказав на те, що їх неможливо знайти, я провів власне дослідження і також не зміг виявити проблеми», — написав Ке в електронному листі до суду. «Я не мав наміру ввести в оману адвоката протилежної сторони або суд і щиро вибачився за свою помилку».
Незважаючи на популярність чат-ботів, які навчаються на великій кількості даних, програми також схильні до помилок, відомих як «галюцинації».
Адвокати, які представляють інтереси матері, назвали поведінку Ке «осудною та заслуговує догани», оскільки вона призвела до «значних витрат часу та витрат», щоб визначити, чи були випадки, які вона цитувала, реальними.
Вони просили присудити спеціальні витрати, але суддя, який розглядав справу, відхилив прохання, заявивши, що такий «надзвичайний крок» вимагав би «визнання осудливої поведінки або зловживання процесом» з боку адвоката.
«Посилання на фальшиві справи в судових документах та інших матеріалах, переданих до суду, є зловживанням процесом і прирівнюється до надання неправдивих заяв суду», — написав суддя Девід Масухара. «Якщо це не зупинити, це може призвести до судової помилки».
Він виявив, що адвокат протилежної сторони «добре забезпечений» і вже надав «томи» матеріалів у справі. «Тут не було шансів, що дві фальшиві справи проскочать».
Масухара сказав, що дії Ке викликали «значний негативний розголос», і вона «наївно оцінювала ризики використання ChatGPT», але він виявив, що вона вжила заходів, щоб виправити свої помилки.
«Я не вважаю, що вона мала намір ввести в оману чи ввести в оману. Я приймаю щирі вибачення пані Ке перед адвокатом і судом. Її жаль було чітко видно під час її появи та усних пояснень у суді».
Попри відмову Масухари присудити спеціальні витрати, юридичне товариство Британської Колумбії зараз розслідує поведінку Ке.
«Визнаючи потенційні переваги використання штучного інтелекту під час надання юридичних послуг, Юридичне товариство також видало вказівки для юристів щодо належного використання штучного інтелекту та очікує, що юристи дотримуватимуться стандартів поведінки, які очікуються від компетентного юриста, якщо вони це роблять. покладаються на штучний інтелект в обслуговуванні своїх клієнтів», – сказала в заяві прессекретар Крістін Там.
Ото попала)
 
Ещё не читали трип репорты, что пишет ИИ)?
 
Назад
Сверху Снизу