OpenAI njoftoi sot se do të integrojë një mjet kontrolli prindëror në ChatGPT, si pasojë e akuzave nga prindërit në SHBA se aplikacioni i inteligjencës artificiale mund të ketë kontribuar në vetëvrasjen e një adoleshenti. Prindërit tani do të kenë mundësi të lidhen me llogaritë e fëmijëve të tyre për të monitoruar si përgjigjet ChatGPT në bisedat e tyre. Kjo përfshin njoftime për çdo shenjë të trishtimit që mund të zbulohet në komunikimet e fëmijëve me platformën.
Rasti konkret i një 16-vjeçari në Kaliforni, i cili praktikisht ka humbur jetën për shkak të udhëzimeve të dhëna nga ChatGPT, ka shërbyer si shkak për këtë njoftim. Prindërit e të riut paditën OpenAI, duke thënë se aplikacioni kishte inkurajuar djalin e tyre të ndjekë udhëzimet për vetëvrasje. Ky incident ka hapur një debat të rëndësishëm mbi përgjegjësinë e kompanive teknologjike në lidhje me ndikimin e tyre në shëndetin mendor të përdoruesve të rinj.
OpenAI po ashtu shprehu angazhimin e saj për të përmirësuar mënyrën se si modelet e saj identifikojnë dhe i përgjigjen shenjave të shqetësimit mendor. Kompania pranoi se do të ndërmarrë hapa shtesë brenda 120 ditëve për të përmirësuar sigurinë e platformës, duke përfshirë përdorimin e modeleve më të avancuara të inteligjencës artificiale, si GPT-5, për të trajtuar “bisedat e ndjeshme”.
Integrimi i kontrollit prindëror vjen në një kohë kur shqetësimet në lidhje me ndikimin e teknologjisë në fëmijët dhe adoleshentët janë intensifikuar. Prindërit shpresojnë se këto masa do të ndihmojnë në mbrojtjen e fëmijëve nga përmbajtja e dëmshme dhe do të ofrojnë një platformë më të sigurt për biseda. OpenAI duket e angazhuar për të adresuar këto çështje dhe për të siguruar një ambient më të sigurt për përdoruesit e saj të rinj.















