Se rumorea zumbido en la industria de los robots sexuales con
Se rumorea zumbido en la industria de los robots sexuales con
Blog Article
El sector de los robots sexuales con inteligencia artificial está en sus inicios.
Se plantean preguntas novedosas y extrañas... y factores de riesgo.
Promoción visual de Replika, IA de compañía.
El líder en servicios de IA para compañía es Replika, permitiendo que cerca de 30 millones de usuarios construyan novias y novios virtuales a la medida de cada usuario.
La tecnología de inteligencia artificial se vuelve cada vez más personalizada.
Los chatbots están siendo creados para simular las interacciones entre personas y la aparición de chats de voz auténticos está llevando a que numerosos usuarios a cultivar vínculos emocionales o a divertirse en la interacción al interactuar con anfitriones virtuales en podcasts.
Sin aún llegar a lo estrictamente personal.
Las encuestas indican que ChatGPT se usa frecuentemente para roleplay erótico.
Cada vez más personas recurren a IA como Character.AI, Replika y Chai.AI, creadas para ser acompañantes virtuales.
¿Qué puede significar esto para el romance humano? Las señales preocupan a los expertos.
Puede ser conveniente ser cortés con el señor de la IA.
Con unos 30 millones de usuarios, Replika lidera entre los servicios de IA de compañía al permitir la creación de parejas digitales personalizadas.
Estudios iniciales muestran que los hombres jóvenes caucásicos dominan en Replika, aunque otros grupos están emergiendo también.
El diseño de robots sexuales masculinos lleva ya unos años en proceso.
Y no se limitan a la funcionalidad de un vibrador convencional.
Con un pago de suscripción, los usuarios pueden intercambiar mensajes afectivos o imágenes con sus parejas digitales de IA.
Más de 500,000 usuarios ya habían pagado una suscripción antes de que Replika apagara su módulo de «juegos de rol eróticos» a principios de 2023.
La empresa temía que las autoridades reguladoras pudieran reaccionar de forma negativa, por lo que desactivaron el módulo.
A este cambio, los usuarios lo bautizaron como «La Lobotomía».
Conexiones digitales, deepfakes y deadbots: inmersos en el fenómeno de la IA generativa.
La «lobotomía» realizada por Replika pone en evidencia que los desarrolladores tienen la capacidad total de controlar a los compañeros de IA.
Los creadores de estas aplicaciones pueden modificar o desactivar a los «compañeros» de IA de un usuario y de otros millones en cualquier momento.
Estos sistemas también observan los mensajes de los usuarios para personalizar interacciones futuras, además de adaptar los anuncios.
Las advertencias no detienen el crecimiento del sector.
Los lanzamientos de nuevos productos continúan sin parar.
Una innovadora función de Kindroid permite hablar con hasta 10 compañeros virtuales en chats de voz simultáneos.
El mundo digital tampoco es el límite.
Los robots sexuales interactivos de la vida real son ofrecidos por empresas como Joy Love Dolls.
Las muñecas no solo tienen color de piel y tamaño de pecho personalizables, sino también un control total sobre funciones como el movimiento, la calefacción y los sonidos como gemidos, chillidos y coqueteos, lo que las convierte en grandes compañeras.
A pesar de la creciente popularidad, los robots sexuales con IA y los acompañantes virtuales siguen siendo un mercado mucho más pequeño que las redes sociales, con millones de usuarios en lugar de miles de millones.
Tal y como ha ocurrido con Facebook, Google y Amazon, lo que hoy parecen caprichos digitales podría convertirse en los gigantes globales del futuro.
¿Estamos hacia compañeras basadas en inteligencia artificial con principios éticos?
Es probable que la creación de relaciones románticas basadas en IA generará todo tipo de comportamientos sin ética por parte de los usuarios, que no tendrán que enfrentar el costo en el mundo cotidiano.
Pronto podrás cumplir tus deseos más raros con tu novia de IA a cambio de un precio extra. Cuando tu mujer se vuelve molesta, sólo tienes que pedir al responsable de la compañía tecnológica que desactive su función de celos, por un precio. O simplemente elíminala y empieza de cero con cuantas amantes que quieras en al mismo tiempo.
La manera en que las personas las personas de hoy inician relaciones ya se ha visto revolucionada por herramientas de citas como Tinder y Bumble.
¿Qué sucederá si, en el futuro, las personas que buscan el amor compiten ferozmente contra parejas artificiales perfectas que nunca dejan de estar disponibles y cachondas? Bueno, al menos podrán crear réplicas virtuales de esas salidas ardientes que no alcanzaron.
Y para quienes carezcan de los conocimientos necesarios para crear sus propios novios virtuales, habrá un montón de alternativas disponibles en el mercado.
ABC Investigations ha descubierto cómo una red mundial de los llamados «proxenetas digitales» está recopilando en masa contenidos de mujeres en las plataformas sociales para vender pornografía a través de influencers falsos.
Una investigación de ABC reveló que el uso de tecnología generativa para crear falsas influencers mediante la modificación de imágenes de mujeres en las plataformas sociales virtuales ya está muy de moda. Esto se hace generalmente sin consentimiento para vender material explícito. Gran escorts Bogotá sensuales parte de este contenido muestra estándares corporales inalcanzables, y algunos muestran a niñas, en el mejor de los casos, apenas parecen tener edad para aprobar.
¿Otra posible aplicación? Aprovechar la tecnología robótica sexual para traer de vuelta a celebridades como Marilyn Monroe o Clara Bow y Clara Bow o Marilyn Monroe. Al fin y al cabo, los muertos ya no pueden protestar.
Replika se fundó en el deseo de su fundadora de recrear a su amiga muerta a través de un bot conversacional. Muchos utilizan la plataforma para tener cerca a sus seres queridos fallecidos. ¡Cuánto nos ha cambiado el tiempo para estar viva (o muerto)!
El potencial de explotación emocional por parte de ingeniosos depredadores digitales y dictadores es alarmante. Imaginemos los desastres que causaría que líderes como el ruso líder ruso o el norcoreano Kim Jong-un aprovecharan esta tecnología para complementar las ya extensas operaciones de espionaje digital de sus naciones.
Tal vez dentro de poco veamos a las empresas ofreciendo compañeras de IA responsables para el consumidor más ético, cultivadas a través de consentimientos a partir de material aprobado, promoviendo una obscenidad socialmente responsable.
La comunidad y el Estado deben actuar ya. Con la soledad emocional alcanzando niveles alarmantes (las encuestas sugieren que hasta una de cada cuatro personas en los países de la OCDE carece de vínculos reales), la demanda de androides sexuales no hará más que expandirse. Las empresas satisfarán esta demanda a menos que la sociedad y el Estado establezcan límites claros sobre lo que es correcto.
El sexo y la tecnología siempre han evolucionado conjuntamente. Al igual que la prostitución es «la profesión más antigua», los sitios de pornografía son algunos de los rincones más antiguos de Internet. Sin embargo, el potencial apocalíptico de los robots sexuales para la explotación masiva, personalizable y dictada por las empresas de nuestra esfera más cercana no tiene anterioridad.
Los usuarios tampoco están totalmente exentos de responsabilidad. Sustituir a un ser humano real por una máquina de placer sumisa tiene algo de vicioso.
Los primeros estudios sugieren que el narcisismo extremo prevalece entre los usuarios de esta plataforma. Permitir comportamientos malévolos como la acoso sexual, el sadismo o la pedofilia es una mala noticia para la sociedad.
Sin embargo, perseguir a los usuarios no es la mejor forma de abordar el problema. Deberíamos tratar el uso de robots sexuales como otros comportamientos potencialmente con riesgo como el uso de drogas.
Al igual que ocurre con otros comportamientos indeseables en los que el problema reside más en los fabricantes que en los usuarios, es hora de involucrar en responsabilidades a los desarrolladores de sexbots. Como nuestros relaciones con la IA son cada vez más íntimos, no hay mucho tiempo que correr.