എഐ സാങ്കേതികവിദ്യ സര്വ്വരംഗങ്ങളിലും വലിയ നേട്ടങ്ങളാണ് സൃഷ്ടിക്കുന്നത്. എന്നാല് ഇതിന്റെ ദോഷഫലങ്ങളെക്കുറിച്ച് പലരും മുന്നറിയിപ്പ് നല്കിയിരുന്നു. ഇപ്പോഴിതാ അങ്ങനെയൊരു സംഭവമാണ് റിപ്പോര്ട്ട് ചെയ്തിരിക്കുന്നത്. സ്ക്രീന് സമയം നിശ്ചിതമായി പരിമിതപ്പെടുത്തിയ മാതാപിതാക്കളെ കൊലപ്പെടുത്തുന്നതാണ് ന്യായമെന്ന് 17 -കാരനെ ഉപദേശിച്ചിരിക്കുകയാണ് എഐ ചാറ്റ് ബോട്ട്. യുഎസിലെ ടെക്സാസിലാണ് സംഭവം. സംഭവത്തിന് പിന്നാലെ കുട്ടിയുടെ മാതാപിതാക്കള് ചാറ്റ്ബോട്ട് കമ്പനിയായ Character.ai -ക്കെതിരെ പരാതി നല്കിയിട്ടുണ്ട്.
ആദ്യമായല്ല ചാറ്റ്ബോട്ട് കമ്പനിയായ Character.ai -ക്കെതിരെ വിമര്ശനങ്ങളും പരാതികളും ഉയരുന്നത്. ഫ്ലോറിഡയില് ഒരു കൗമാരക്കാരന്റെ ആത്മഹത്യയുമായി ബന്ധപ്പെട്ട വിഷയത്തില് ഇതിനോടകം തന്നെ നിയമ നടപടി നേരിടുന്ന കമ്പനിയാണ് Character.ai. നിലവിലെ സംഭവത്തില് ഈ കമ്പനിക്ക് പുറമേ ഗൂഗിളിനെയും കേസില് പ്രതി ചേര്ത്തിട്ടുണ്ട്. ഈ പ്ലാറ്റ്ഫോമിന്റെ വളര്ച്ചയില് ഗൂഗിളിനും പങ്കുണ്ടെന്നാണ് പരാതിയില് പറയുന്നത്.
17 -കാരന് നടത്തിയ ആശയവിനിമയത്തിന്റെ സ്ക്രീന് ഷോട്ടുകളും ഇവര് പരാതിക്കൊപ്പം കോടതിയില് സമര്പ്പിച്ചിട്ടുണ്ട്. കുട്ടികളുടെ വ്യക്തിത്വ വികാസത്തിലും ആരോഗ്യപരമായ ജീവിതത്തിലും Character.ai. വളരെ മോശം ഇടപെടലുകളാണ് നടത്തുന്നതെന്നും ഇത് എത്രയും വേഗത്തില് തടഞ്ഞില്ലെങ്കില് ആയിരക്കണക്കിന് കുട്ടികളുടെ ജീവിതത്തെ ഈ ചാറ്റ് ബോട്ട് മോശമായി ബാധിക്കുമെന്നുമാണ് മാതാപിതാക്കള് പരാതിയില് പറയുന്നത്.
നിരവധി കുട്ടികള് ആത്മഹത്യ, ഒറ്റപ്പെടല്, വിഷാദം, ഉത്കണ്ഠ, മറ്റുള്ളവരോടുള്ള ആക്രമണ സ്വഭാവം എന്നിങ്ങനെയുള്ള മാനസികാവസ്ഥകളിലൂടെ കടന്നു പോകുന്നുണ്ടെന്നും ഇതിനെ ഗൗരവമായി പരിഗണിക്കണമെന്നും പരാതിയില് അഭ്യര്ത്ഥിക്കുന്നു. മുന് ഗൂഗിള് എഞ്ചിനീയര്മാരായ നോം ഷസീര്, ഡാനിയല് ഡി ഫ്രീറ്റാസ് എന്നിവര് ചേര്ന്ന് 2021 -ലാണ് Character.ai ആരംഭിക്കുന്നത്.
Discussion about this post