Si el sistema detecta que el usuario está pensando en suicidarse o autolesionarse, se pondrá en contacto con sus padres. En caso de peligro inminente, si los padres del usuario no están localizables, el sistema puede ponerse en contacto con las autoridades.
Libertad vs. seguridad
En una entrada de blog sobre el anuncio, el director ejecutivo Sam Altman escribió que la empresa está tratando de equilibrar la libertad, la privacidad y la seguridad de los adolescentes.
“Somos conscientes de que estos principios están en conflicto y no todo el mundo estará de acuerdo con la forma en que lo estamos resolviendo”.
“Son decisiones difíciles, pero después de hablar con expertos, esto es lo que creemos que es mejor y queremos ser transparentes en nuestras intenciones”, agregó.
A finales de septiembre, la empresa pondrá en marcha controles para que los padres puedan vincular la cuenta de sus hijos a la suya propia, lo que les permitirá gestionar las conversaciones y desactivar funciones. También podrán recibir notificaciones cuando “el sistema detecte que su hijo adolescente se encuentra en un momento de angustia aguda”, según la entrada del blog de la empresa y establecer límites sobre las horas del día en que sus hijos pueden utilizar ChatGPT.
Al mismo tiempo, OpenAI sigue sometida a una orden judicial que le obliga a preservar indefinidamente los chats de los consumidores, algo que disgusta enormemente a la empresa. La noticia es tanto un paso hacia la protección de los menores como un inteligente movimiento de relaciones públicas para reforzar la idea de que las conversaciones con los chatbots son tan personales que la privacidad de los consumidores sólo debería violarse en las circunstancias más extremas.

Tu opinión enriquece este artículo: