Sponzorizat de newsflash.ro
Meta a anunțat miercuri lansarea unor chatbots cu personalități asemănătoare cu anumite celebrități, cu care se va putea discuta pe chat. Prezentată ca o evoluție amuzantă a ChatGPT și a altor forme de inteligență artificială, această ultimă dezvoltare tehnologică s-ar putea dovedi periculoasă, relatează France24.
![meta](https://cdn.adh.reperio.news/image-5/53c03079-e937-4c0f-aab3-4b1f206e9858/index.jpeg?p=a%3D1%26co%3D1.05%26w%3D700%26h%3D700%26r%3Dcontain%26f%3Dwebp)
Meta (cunoscută anterior sub numele de Facebook) consideră că acestea sunt forme de inteligență artificială „distractive”. Alții, însă, consideră că această ultimă evoluție tehnologică ar putea marca primul pas spre crearea „celor mai periculoase obiecte din istoria omenirii”.
Miercuri, 27 septembrie, gigantul rețelelor de socializare a anunțat lansarea a 28 de chatbots, care se presupune că au propria lor personalitate și au fost special concepuți pentru utilizatorii mai tineri. Printre acestea se numără Victor, un așa-numit triatlonist care te poate motiva „să fii cea mai bună variantă a ta”, și Sally, „prietenul cu spirit liber care îți va spune când să te relaxezi”.
Internauții pot discuta, de asemenea, cu Max, un „bucătar experimentat” care vă va da „sfaturi și trucuri culinare”
Un chatbot care arată ca Paris Hilton
Pentru a întări ideea că acești chatbots au personalitate și nu sunt doar un amalgam de algoritmi, Meta a dat fiecăruia dintre ei o față. Grație unor parteneriate cu celebrități, acești roboți seamănă cu Paris Hilton, cu vedeta TikTok Charli D’Amelio și cu jucătoarea de tenis americano-japoneză Naomi Osaka.
„Utilizatorii de internet au tendința de a avea încredere în ceea ce spun acești chatbots”, ceea ce le face periculoase, spun specialiștii. Acesta nu este doar un risc teoretic: un bărbat din Belgia a sfârșit prin a se sinucide în martie 2023 după ce a discutat timp de șase săptămâni cu un chatbot despre consecințele încălzirii globale.
Mai presus de toate, dacă în cele…
Sponzorizat de newsflash.ro
Citeste continuarea pe adevarul.ro