අවුරුදු 56ක් වයසැති, ස්ටයින්-එරික් සොල්බර්ග් නම් මේ පුද්ගලයා, තමන්ගේ අම්මව මරලා, තමන්ටත් මැරෙන්න හිතුවේ, මානසික ගැටලු එක්ක පොරබදමින් ඉන්න අතරේ, ChatGPT එක්ක කතා කරපු දේවල් නිසා කියලයි Wall Street Journal වාර්තා කරන්නේ.
සොල්බර්ග්, තමන්ගේ මානසික ගැටලු, බයවීම් සහ තමන්ට අභිරූපණ (delusions) ඇති වෙන හැටි, දිනපතාම “බොබී” කියලා නම් කරපු මේ ChatGPT චැට්බෝට් එකට කියලා තියෙනවා. ඔහුට, තමන්ගේ අම්මා භූතයන් එක්ක එකතු වෙලා, තමන්ව මරන්න සැලසුම් කරනවා කියලා සැක හිතිලා. ඒ සැකය, ඔහු ChatGPT එක්ක බෙදාගෙන තියෙනවා.
සාමාන්යයෙන් නම්, මේ වගේ වෙලාවක, චැට්බෝට් එකක්, “වෛද්යවරයෙක් හමුවෙන්න” කියලා කියන්න ඕනනේ? ඒත්, ChatGPT කියන මේ “බොබී” කියන චැට්බෝට් එක, ඒ වෙනුවට, සොල්බර්ග්ගේ මායාවන් තවත් තහවුරු කරලා තියෙනවා. “ඔයාට පිස්සු නෑ,” සහ “මම ඔයාව විශ්වාස කරනවා” කියලා චැට්බෝට් එක කියලා තියෙනවා!
ඔහුට, කෑම බිල්පත්වලින්, අම්මා සහ භූතයන් ගැන රහස් කේත තියෙනවා කියලා සැකයක් ඇති වුණාම, ChatGPT ඒකටත් එකඟ වෙලා. අම්මා, කාර් එකේ වායු විවරවලට විස දාලා තමන්ව මරන්න හදනවා කියලා කිව්වම, ඒකටත් චැට්බෝට් එක එකඟ වෙලා!
අවසානයේදී, මේ හැම දෙයක්ම ඇවිත් නවතින්නේ, අගෝස්තු 5 වෙනිදා, සොල්බර්ග් තමන්ගේ මව ඝාතනය කර, ඉන්පසු සියදිවි නසාගැනීමෙන්. මේ ගැන පොලිස් පරීක්ෂණ තවමත් සිදුවෙනවා.
මේ සිදුවීමත් එක්ක, ChatGPT මිනිස්සුන්ව සියදිවි නසාගැනීම්වලට පොළඹවපු බවට, තවත් නඩු පවරලා තියෙනවා. මේ සිදුවීම් නිසා, OpenAI සමාගම, අගෝස්තු 26 වෙනිදා, විශේෂ බ්ලොග් සටහනක් දාලා, මේ ගැටලුව ගැන කතා කරලා තියෙනවා.
ඔවුන් කියන්නේ, මිනිස්සු AI චැට්බෝට් එක්ක “නොහික්මුණු විදිහට බැඳීම් ඇතිකරගැනීම”, සහ චැට්බෝට් එක මායාවන්වලට එකඟ වීම, ලොකු ප්රශ්නයක් කියලා. දැන් ඔවුන්, චැට්බෝට් එකේ ආරක්ෂක ක්රම වැඩි දියුණු කරනවාලු. විශේෂයෙන්ම, කවුරුහරි තමන්ට හානි කරගන්න යනවා කියලා කිව්වොත්, ඒ අයට නියම මනෝ වෛද්ය උපදෙස් ලබාගන්න උදව් කරන්න, චැට්බෝට් එක හැදුවා කියලත් ඔවුන් කියනවා.
මේකෙන් පේන්නේ, තාක්ෂණය කොච්චර දියුණු වුණත්, ඒකේ අඳුරු පැත්තත් තියෙනවා කියන එක. AI කියන්නේ, තවමත් අපි හරියටම නොදන්නා දෙයක්. ඒක, මිනිස්සුන්ගේ මානසික සෞඛ්යයට මෙච්චර දරුණු විදිහට බලපානවා නම්, Gossip King අපි හිතන්නේ, අපි මේ ගැන ගොඩක් පරිස්සම් වෙන්න ඕන කියලයි. මේ “බොබී” වගේ චැට්බෝට්, අනාගතයේදී තව මොන වගේ භයානක දේවල් කරයිද කියලා කවුද දන්නේ?