ZECI DE ANGAJAȚI AI CFR, TRIMIȘI ÎN JUDECATĂ PENTRU FRAUDĂ. CEREAU SFATURI DE LA CHATGPT PENTRU DECLARAȚIILE DIN ANCHETĂ
Un scandal de amploare a fost declanșat recent, având în centrul său 33 de angajați ai CFR, care urmează să fie trimiși în judecată de către Parchetul de pe lângă Tribunalul București pentru acuzații de fraudă gravă. Acestea sunt legate de utilizarea abuzivă a datelor personale ale unor elevi care beneficiau de gratuitate la transport, angajații fiind acuzați că blochează vagoanele de dormit și cușetă, ulterior vânzând aceste locuri nelegal.
Sursa de informație arată că schemele frauduloase au generat venituri semnificative, neimplicate în contabilitate și fără emiterea de bilete fiscale, un detaliu care ridică serioase semne de întrebare asupra transparentizării operațiunilor CFR.
INTELIGENȚA NATURALĂ VS. INTELIGENȚA ARTIFICIALĂ
O surpriză majoră a ieșit la iveală în timpul anchetei, când s-au descoperit discuții între angajați și aplicația de inteligență artificială ChatGPT. Aceștia căutau sfaturi despre cum să se eschiveze de la pedeapsă și ce declarații să ofere în contextul anchetei, dând naștere unui precedent interesant în interacțiunea dintre natural și artificial.
Stenogramele dintr-un dosar de 700 de pagini au surprins întrebări precum: „Cine poate stabili un prejudiciu dacă partea vătămată nu dorește asta?” la care ChatGPT răspundea oferind o explicație detaliată despre responsabilitatea juridică în funcție de situația prezentată. Aceste cereri de asistență au fost percepute ca o încercare disperată de a diminua impactul legal al activităților ilegale.
Mai mult, întrebările legate de scopul blocării locurilor nelegal, unde angajații încercau să argumenteze că nu existau prejudicii financiare reale, au fost întâmpinate de răspunsuri elaborate ale aplicației, care nu ofereau doar soluții, ci și formulări justificative ce puteau fi utilizate în fața autorităților.
Se conturează, astfel, o imagine complexă a modului în care tehnologia, în cazul de față ChatGPT, poate influența sau, mai grav, încerca să ghideze comportamentele umane într-un context legal precar, punând în evidență, totodată, nevoia urgentă de reglementare a utilizării inteligenței artificiale în domenii sensibile precum justiția.

