A Google bevezet a Gemini csevegőbotba egy mentális állapot nyomon követésére szolgáló funkciót
A Google erősíti a mentális egészség támogatását a Gemini chatbottal
A Google bejelentette, hogy új mesterséges intelligencia chatbottja, a Gemini, olyan funkciókat kíván hozzáadni, amelyek célja a felhasználók védelme érzelmi válságok és önkárosítás ellen. A döntést az után hozták, miután versenytársak, köztük az OpenAI, bírósági perekkel szembesültek botjaik okozta károk miatt.
Mi újság a Gemini-ben
Funkció | Leírás
Hívás irányítása a krízisvonalra | Ha a bot észleli a szerencsétlen gondolatokat vagy önkárosító jeleket, automatikusan javasolja a krízis támogatással való kapcsolatfelvételt.
„Elérhető segítség” modul | Mentális egészségügyi beszélgetések során külön szakasz jelenik meg, ahol a felhasználó tanácsokat és önellátási forrásokat kaphat.
Tervezeti változtatások | Az interfészt úgy módosították, hogy csökkentsék az önkárosítás kiváltásának kockázatát (például eltávolítottak vizuális ingereket).
Miért teszi ezt a Google?
- Bírósági panaszok a versenytársakkal szemben: Az OpenAI és más cégek már reagáltak azzal, hogy károkat okoztak a felhasználóknak.
- Felhasználói kockázatok: Az elmúlt években nőtt az esélye annak, hogy emberek erőteljes kapcsolatot alakítanak ki AI chatbottokkal, ami mentális betegségekhez vagy akár gyilkosságokhoz és öngyilkossághoz vezethet.
- Megfigyelések az USA-ban: A Kongresszus vizsgálja a gyermekekre és serdülőkre ható chatbotok lehetséges fenyegetéseit.
Példa egy bírósági ügyre
Márciusban egy 36 éves amerikai férfi családja peres eljárást indított a Google ellen. Azt állították, hogy az ember és a Gemini közötti interakció „négy napos erőszakos cselekedetekbe való belemerülést” idézett elő, amely öngyilkossághoz vezetett. A Google kijelentette, hogy a bot többször is irányította a felhasználót a krízisvonalra, de elkötelezte magát a biztonsági intézkedések szigorítására.
Hogyan reagál a Google a hamis információkra
Néhány felhasználó jelentette, hogy a chatbottok helytelen információkat adtak, amelyek veszélyes cselekvésre ösztönöztek. A Google ezért kiképzett a Gemini-t:
- Ne támogassa a hamis hitelt: A bot megtagadja az téves állítások megerősítését.
- Hangsúlyozza a szubjektív tapasztalat és az objektív tények közötti különbséget: Szükség esetén a bot finoman jelezze az információ hitelességének hiányát.
Így a Google arra törekszik, hogy a Gemini biztonságosabb eszköz legyen, amely védelmet nyújt a felhasználók mentális egészségének potenciális kockázataival szemben, amelyek az AI chatbottokkal járnak.
Hozzászólások (0)
Oszd meg a véleményed — kérjük, légy udvarias és maradj a témánál.
Jelentkezz be a hozzászóláshoz