Добавить новость
ru24.net
World News
Декабрь
2025
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
26
27
28
29
30
31

Roblox, la infancia y el dinero a toda costa

0

Con 150 millones de usuarios activos mensuales, Roblox se ha convertido, desde hace unos años, en el refugio digital de muchos niños y niñas alrededor del mundo, incluso, desde Cuba. Su «explosión» popular aconteció durante la pandemia de la COVID-19, ya que los confinamientos obligaron a los más pequeños de casa a buscar alternativas de entretenimiento.

Sin embargo, la plataforma enfrenta por estos días una avalancha de críticas por la falta de medidas que aseguren el bienestar de los menores. Y es que, en internet, allí donde las restricciones de edad sean pocas, siempre asoman monstruos disfrazados de ovejas. 

Para más inri, hace apenas unos días el director ejecutivo de Roblox, David Baszucki, ofreció una entrevista al podcast Hard Fork en la que, con la mayor naturalidad del mundo, mostró fastidio ante preguntas sobre seguridad infantil. En un ecosistema como Roblox, la incomodidad de este directivo frente a un asunto tan sensible pone al descubierto una lógica que, de hecho, trasciende a esa plataforma y forma parte de una peligrosa cultura de trabajo en la industria tecnológica.

Sin rubor 

En la mencionada entrevista, Baszucki no negó los problemas de seguridad que permiten a pederastas interactuar con menores de edad, ni desconoció las críticas, pero reaccionó como lo han hecho tantos otros empresarios antes que él: minimizó el alcance de los daños, apeló a la escala del servicio y trató de desplazar la conversación hacia otros terrenos. Esa actitud, más que excepcional, resulta familiar. La sorpresa no radica en lo que dijo, sino en que lo dijera sin ambages, sin el mínimo gesto de empatía hacia las víctimas de abusos cometidos en su plataforma, ni señales claras de responsabilidad moral ante una comunidad que incluye a millones de niños desde los cinco años de edad.

Roblox ocupa un lugar singular en el ecosistema digital. A diferencia de Instagram, TikTok u otras redes sociales que fijan en 13 años la edad mínima de acceso, la empresa ha construido su crecimiento sobre una base infantil. Esa decisión implicó desde el inicio una presión adicional para desarrollar sistemas robustos de protección. La compañía asegura destinar cientos de millones de dólares anuales a estas tareas y afirma que alrededor del diez por ciento de su fuerza laboral trabaja en áreas de confianza y seguridad. Incluso especialistas del sector reconocen la seriedad de muchos de esos equipos.

Sin embargo, la historia de la plataforma muestra una distancia persistente entre la retórica corporativa y los resultados. Durante años, muchos adultos pudieron contactar libremente con menores, salvo que los padres modificaran configuraciones poco visibles. Roblox no verifica la edad de sus usuarios y permite que cualquier niño se declare mayor de 13 años para sortear restricciones de contenido. Los filtros de lenguaje se eluden con simples variaciones ortográficas y los controles parentales pierden eficacia cuando un menor crea una cuenta nueva y se atribuye una edad superior.

Solo recientemente la empresa introdujo límites más estrictos al chat y anunció el despliegue de tecnología propia de estimación de edad. Con resultados todavía por mostrar en ese sentido, la actitud de Baszucki llegó a delegar las responsabilidades de las nuevas medidas de seguridad a su equipo de relaciones públicas, como si la seguridad infantil constituyera un asunto secundario dentro de la conversación pública sobre Roblox.

Antecedentes sin resolver

Los antecedentes legales refuerzan la gravedad del problema. Desde 2018, al menos dos docenas de personas en Estados Unidos enfrentaron acusaciones de secuestro o abuso tras contactar a sus víctimas en Roblox, según una investigación de Bloomberg publicada en 2024. Fiscales generales de los estados de Texas, Kentucky y Luisiana interpusieron demandas que señalan a Roblox como facilitador de explotación y acoso sexual de menores. Más de 35 familias también llevaron sus casos a los tribunales por hechos similares.

Las investigaciones periodísticas recientes confirman que los riesgos persisten. Una reportera de The Guardian creó un perfil que simulaba pertenecer a una menor y accedió sin grandes obstáculos a clubes virtuales de nudismo, casinos y juegos de terror creados por usuarios. En uno de esos espacios, otro avatar realizó una agresión sexual simbólica mientras ella pedía que se detuviera. El episodio no constituye una excepción aislada.

Nadie sostiene que toda interacción digital deba desaparecer para evitar cualquier daño. Millones de niños utilizan Roblox sin incidentes y cualquier plataforma que permita comunicación entre desconocidos enfrenta riesgos inherentes. La cuestión central radica en las decisiones previas. La empresa pudo limitar desde temprano el contacto entre adultos y menores, adoptar mecanismos de verificación de edad antes de que la legislación los empujara y dificultar la creación de cuentas infantiles sin consentimiento parental verificable. Esas opciones, no obstante, habrían afectado el ritmo de crecimiento. Roblox eligió otra ruta.

Patrones en la industria

El caso de Roblox es un patrón que se repite en buena parte de la industria tecnológica. No pocos ejecutivos priorizan la expansión sobre los resguardos de seguridad, posponen soluciones conocidas y neutralizan las voces críticas dentro de sus propias organizaciones. Cuando los periodistas insisten en los efectos reales de esos productos sobre personas concretas, reciben evasivas, bromas o reproches. La estrategia de dilatar, negar y desviar ha demostrado eficacia.

Los ejemplos abundan. Open-AI evalúa cómo la reducción de respuestas complacientes en sus modelos más recientes afecta la participación de los usuarios y desarrolla ajustes para recuperar niveles de interacción. TikTok responde a preocupaciones sobre el impacto de los videos cortos en el rendimiento académico con funciones de «bienestar digital» que, paradójicamente, añaden nuevas razones para permanecer en la aplicación. Meta enfrenta demandas que describen años de retrasos deliberados en la prevención del contacto entre depredadores y menores, decisiones conscientes para optimizar la participación adolescente y tolerancia reiterada a intentos de trata antes de sancionar cuentas.

Más allá del lenguaje jurídico, lo más revelador surge de documentos internos y testimonios de empleados. Investigadores que alertaron sobre el deterioro de la salud mental al usar Instagram temieron que ocultar esos resultados evocara prácticas de la industria tabacalera. Otros expresaron incomodidad ante estrategias de crecimiento dirigidas de facto a niños menores de 13 años. Estudios sobre adicción redefinieron conceptos para reducir el impacto de sus hallazgos antes de la publicación. Las advertencias quedaron sin respuesta pública.

En ese contexto, los trabajadores de base cumplen su función, mientras las decisiones finales bloquean cambios significativos. El equilibrio que durante algunos años permitió avances parciales en moderación de contenidos y protección de usuarios se ha erosionado. La presión pública perdió fuerza, la atención social se dispersó y la vergüenza, como regulador informal del poder corporativo, casi desapareció. En su lugar se afianzan la negación y la ostentación de desafío.

Por ahora, plataformas como Roblox y otras buscan ser evaluadas por sus intenciones declaradas, no por los efectos concretos sobre quienes las usan. Mientras tanto, prometen futuros grandilocuentes y descuidan la gestión responsable del presente.




Moscow.media
Частные объявления сегодня





Rss.plus
















Музыкальные новости




























Спорт в России и мире

Новости спорта


Новости тенниса