Pe măsură ce oamenii apelează tot mai des la inteligența artificială pentru a cere sfaturi, unii avocați din SUA le recomandă clienților să nu trateze chatbot-urile bazate pe AI ca pe niște confidenți de încredere atunci când libertatea sau răspunderea lor juridică sunt în joc. Aceste avertismente au căpătat un caracter și mai pregnant după ce un judecător federal din New York a decis, în acest an, că fostul director general al unei companii de servicii financiare, aflate în faliment, nu a avut dreptul de a-și ascunde conversațiile cu chatbot-urile bazate pe AI de procurorii care îl acuzau de fraudă în domeniul valorilor mobiliare, anunță Reuters.
În urma hotărârii, avocații au avertizat că discuțiile purtate cu chatboți precum Claude de la Anthropic și ChatGPT de la OpenAI ar putea fi solicitate de procurori în dosarele penale sau de părțile adverse în procesele civile.
„Le spunem clienților noștri: trebuie să procedați cu prudență în această privință”, a declarat Alexandria Gutierrez Swette, avocată la firma de avocatură Kobre & Kim din New York.
Discuțiile dintre oameni și avocații lor sunt aproape întotdeauna considerate confidențiale în conformitate cu legislația SUA. Dar chatbot-urile cu AI nu sunt avocați, iar aceștia din urmă îi îndrumă pe clienți să ia măsuri care ar putea menține private comunicările lor cu instrumentele de inteligență artificială.
În e-mailuri către clienți și în avize postate pe site-urile lor web, peste o duzină de firme de avocatură importante din SUA au prezentat sfaturi pentru persoane și companii pentru a reduce șansele ca discuțiile cu AI să ajungă în instanță.
Avertismente similare apar și în contractele de angajare încheiate de unele firme cu clienții lor. De exemplu, firma Sher Tremonte, cu sediul în New York, a menționat într-un contract recent cu un client că împărtășirea sfaturilor unui avocat sau a comunicărilor cu un chatbot ar putea anula protecția juridică cunoscută sub numele de „privilegiul avocat-client”, care protejează de obicei comunicările dintre avocați și clienții lor.
O hotărâre judecătorească
Cazul care a contribuit la declanșarea semnalelor de alarmă îl viza pe Bradley Heppner, fostul președinte al companiei de servicii financiare falimentare GWG Holdings și fondator al firmei de active alternative Beneficent. Heppner a fost acuzat de procurorii federali în noiembrie anul trecut de fraudă în domeniul valorilor mobiliare și de fraudă electronică, iar el a pledat nevinovat.
Heppner a folosit chatbotul Claude al Anthropic pentru a pregăti rapoarte despre cazul său, pe care le-a împărtășit avocaților săi, care au susținut ulterior că schimburile sale cu AI ar trebui să fie reținute, deoarece conțineau detalii de la avocați legate de apărarea sa.
Procurorii au susținut că aveau dreptul să solicite materialul creat de Heppner cu ajutorul lui Claude, deoarece avocații săi nu erau implicați direct și deoarece privilegiul avocat-client nu se aplică chatbot-urilor. Dezvăluirea voluntară a informațiilor de la un avocat către orice terță parte poate pune în pericol protecțiile legale obișnuite pentru acele comunicări ale avocatului.
Judecătorul districtual american Jed Rakoff, cu sediul în Manhattan, a decis, în februarie, că Heppner trebuie să predea 31 de documente generate de chatbotul Claude al Anthropic, legate de caz.
Nu există „și nici nu ar putea exista o relație avocat-client între un utilizator de IA și o platformă precum Claude”, a scris Rakoff.

Instanțele se confruntă deja cu utilizarea tot mai frecventă a inteligenței artificiale de către avocați și de către persoanele care se reprezintă singure în procesele judiciare, ceea ce a dus, printre altele, la depunerea de documente juridice care conțin cazuri fictive inventate de inteligența artificială.
Decizia judecătorului Rakoff a reprezentat un prim test important în era chatbot-urilor cu AI pentru garanțiile juridice fundamentale care reglementează comunicarea dintre avocat și client, precum și documentele pregătite pentru litigii. În aceeași zi cu hotărârea lui Rakoff, judecătorul magistrat american Anthony Patti din Michigan a declarat că o femeie care se reprezenta singură într-un proces intentat împotriva fostei sale companii nu era obligată să predea conversațiile sale cu ChatGPT de la OpenAI referitoare la pretențiile legate de angajare formulate în cazul respectiv.
Patti a tratat conversațiile femeii cu AI ca parte a propriului „produs al muncii” pentru caz, mai degrabă decât ca conversații cu o persoană pe care angajatorul ei ar putea încerca să o folosească în apărarea sa.
ChatGPT și alte programe generative de AI „sunt instrumente, nu persoane”, a scris Patti în ordonanța sa.
Termenii de confidențialitate și utilizare atât pentru OpenAI, cât și pentru Anthropic precizează că companiile pot partaja date referitoare la utilizatorii lor cu terți. Ambele precizează, de asemenea, că solicită utilizatorilor să consulte un profesionist calificat înainte de a se baza pe chatbot-urile lor pentru sfaturi juridice.
Rakoff, la o audiere din februarie în cazul Heppner, a remarcat că Claude „a prevăzut în mod expres că utilizatorii nu au nicio așteptare de confidențialitate în ceea ce privește datele introduse de ei”.
Avocații se grăbesc să stabilească măsuri de protecție
Sfaturile avocaților au variat de la îndemnul adresat clienților de a-și alege cu atenție platformele de AI până la sugestii privind formulările specifice care ar trebui utilizate în solicitările adresate chatbot-urilor.
Firma O’Melveny & Myers din Los Angeles și alte firme au menționat în avizele adresate clienților că sistemele de AI „închise”, concepute pentru uz corporativ, ar putea oferi o protecție mai solidă pentru comunicările juridice, deși au precizat că și acest aspect rămâne în mare parte netestat.
Unele firme au afirmat că cercetarea juridică bazată pe inteligența artificială este mai probabil să fie protejată de privilegiul avocat-client atunci când este efectuată la indicația unui avocat. Dacă un avocat recomandă utilizarea inteligenței artificiale, persoana respectivă ar trebui să menționeze acest lucru în solicitarea adresată chatbotului, a declarat firma de avocatură Debevoise & Plimpton, cu sediul în New York, într-o notificare publicată pe site-ul său web.

„Efectuez această cercetare la indicația avocatului în cadrul litigiului X”, a sugerat firma ca oamenii să scrie.
Informațiile privind utilizarea AI devin, de asemenea, obișnuite în contractele utilizate de firmele de avocatură cu clienții, potrivit unei analize Reuters a contractelor publicate pe un site web al guvernului SUA.
Sher Tremonte, care reprezintă adesea inculpați în cazuri de criminalitate economică, a declarat într-un nou contract din martie: „Divulgarea comunicărilor privilegiate către o platformă de AI terță parte poate constitui o renunțare la privilegiul avocat-client.”
Justin Ellis, de la firma de avocatură MoloLamken cu sediul în New York, și alți avocați au declarat că se așteaptă ca, în cele din urmă, mai multe hotărâri să clarifice când pot fi utilizate conversațiile cu AI ca probe.
Până atunci, avocații susțin că se aplică în continuare o regulă veche: nu discutați cu nimeni despre cazul dumneavoastră, cu excepția avocatului dumneavoastră – inclusiv cu inteligența artificială.
Citește și:
Editor : C.A.