A empresa liderada por Sam Altman partilhou a intenção de continuar a melhorar a segurança de todos os utilizadores, concretamente, reforçando a proteção dos adolescentes com ferramentas eficazes, como os controlos parentais aplicados pela plataforma recentemente.
Neste sentido, a OpenAI anunciou que está a desenvolver um sistema que permitirá identificar se uma pessoa tem mais ou menos 18 anos, de modo a adaptar a experiência no ChatGPT com base na sua idade e necessidades, alterando automaticamente a forma como o 'chatbot' responde a um adolescente ou a um adulto.
Conforme explicado num comunicado, citado pela Europa Press, quando um utilizador menor for identificado, este será automaticamente direcionado para uma "experiência do ChatGPT com políticas adaptadas à sua idade".
Nesta matéria, serão tomadas medidas que incluem desde o bloqueio de conteúdo sexual explícito, até "em casos excecionais de angústia extrema" e a possível intervenção das forças se segurança externas.
Caso o modelo de IA não tenha a certeza da idade do utilizador ou disponha de informações incompletas, a ferramenta irá optar pela experiência de menores de 18 anos, a fim de garantir a segurança, enquanto os adultos terão opções para comprovar a sua idade e aceder às funcionalidades para maiores de idade.
Estas medidas juntam-se a outros aos controlos parentais, para que as famílias possam gerir a utilização do ChatGPT.
No final deste mês os pais poderão associar a sua conta à dos filhos e estabelecer regras de comportamento para as interações.
Estas mudanças, que visam aumentar a segurança dos utilizadores, foram precedidas por um incidente que resultou no suicídio de um adolescente de 16 anos nos Estados Unidos, em abril deste ano.
Os pais processaram a empresa devido ao papel que o ChatGPT desempenhou, uma vez que, após rever as conversas que o filho manteve com o 'chatbot' durante vários meses, foi possível ver que, embora lhe tenha oferecido inúmeras vezes recursos para procurar ajuda, as salvaguardas acabaram por falhar e a conversa começou a girar em torno do suicídio.
Se estiver a sofrer com alguma doença mental, tiver pensamentos auto-destrutivos ou simplesmente necessitar de falar com alguém, deverá consultar um psiquiatra, psicólogo ou clínico geral. Poderá ainda contactar uma destas entidades (todos estes contactos garantem anonimato tanto a quem liga como a quem atende):
Atendimento psicossocial da Câmara Municipal de Lisboa
800 916 800 (24h/dia)
SOS Voz Amiga - Linha de apoio emocional e prevenção ao suicídio
800 100 441 (entre as 15h30 e 00h30, número gratuito)
213 544 545 - 912 802 669 - 963 524 660 (entre as 16h e as 00h00)
Conversa Amiga
808 237 327 (entre as 15h e as 22h, número gratuito)
210 027 159
SOS Estudante - Linha de apoio emocional e prevenção ao suicídio
239 484 020 - 915246060 - 969554545 (entre as 20h e a 1h)
Telefone da Esperança
222 080 707 (entre as 20h e as 23h)
Telefone da Amizade
228 323 535 | 222 080 707 (entre as 16h e as 23h)
Aconselhamento Psicológico do SNS 24 - No SNS24, o contacto é assumido por profissionais de saúde
808 24 24 24 selecionar depois opção 4 (24h/dia)
Leia Também: Gemini ultrapassou ChatGPT como app gratuita mais popular do iPhone