Un estudio revela que los trabajadores que utilizan IA sufren de soledad y alcoholismo​

Las IA se han convertido en herramientas fundamentales en nuestro día a día, ayudándonos a realizar tareas y resolviendo los problemas que les planteamos. No obstante, si nos preguntamos el propósito de usar una IA todo el día a todas horas sin hacer nada por nuestra cuenta, es cuando empezamos a ver efectos negativos. Un estudio determina que si dependemos de la IA demasiado, podemos desarrollar problemas de salud mental, emocionales y soledad.

A día de hoy podemos crear imágenes, componer canciones y escribir largos textos sin tener ni idea de como saber hacer esto. Y es que, pidiendo a una IA que haga esto por nosotros, conseguiremos que con solo describir lo que queremos, tengamos un resultado bastante competente. Esto hace que, a grandes rasgos, no nos esforcemos por aprender a realizar ciertas tareas, ya que estas las puede hacer la inteligencia artificial.

Usar la IA de forma excesiva afecta a nuestra salud mental y emocional​

ChatGPT y otras IA capaces de generar contenido y hacer trabajo por nosotros están aún muy verdes y tienen muchas cosas a mejorar. A pesar de que lleven tan poco tiempo con nosotros, ya son capaces de incluso reemplazar a los seres humanos en el trabajo. Viendo que estas pueden acabar con nuestro futuro laboral, hay personas que deciden utilizarlas a su favor. Ya vimos como un autoproclamado autor de libros de ciencia ficción logró "escribir" nada menos que 97 libros en 9 meses, usando distintas IA.

Viendo que con las IA podemos generar contenido y venderlo, cosa que hacen cada vez más personas, podemos ver con menor temor el hecho de que van a reemplazarnos poco a poco. Pero si nos imaginamos en una situación donde usamos la IA todos los días a modo de rutina, los resultados son peores de lo esperado. Unos investigadores de la Asociación Americana de Psicología han indicado el grave peligro de depender demasiado de las IA, ya que afecta nuestra salud mental y emocional, además de aumentar la soledad.

Los trabajadores que usaban la IA en todo momento, bebían más alcohol​

Bender borracho desfasado


Si mandamos hacer a la IA aquellas tareas que normalmente hacíamos a modo de rutina, estas pierden toda su importancia, por leve que fuera. Algo tan simple como entrar a Internet para encontrar distintos puntos de vista u opiniones frente a nuestra última compra o la serie que hemos visto, dejan de existir. Y es que, la IA nos puede dar un resumen de estas preguntas de manera directa y nos ahorran tener que buscarlo por nuestra cuenta. Lo mismo podemos aplicarlo en el ámbito laboral, donde una IA puede proponer una solución directa y más precisa que un cliente o trabajador.

Al final conseguimos lo que queremos en un tiempo récord pero... ¿Y luego qué?. Según el estudio en el que han sido encuestados 794 trabajadores de EE.UU., Taiwán, Malasia e Indonesia, un uso excesivo de la IA va a producir efectos negativos. De hecho, el grupo que usó la IA con la mayor frecuencia posible sufrió un aumento de la soledad y el insomnio. Adicionalmente, 166 ingenieros que estaban incluidos empezaron a aumentar el consumo de alcohol después del trabajo.

Curiosamente, aquellos que abusaron de la IA, eran más amables con sus compañeros de trabajo y les ofrecían ayuda siempre que pudieron. Esto puede ser debido a que como la inteligencia artificial se encargaba de casi todo el trabajo, estos buscaban una interacción social y estaban menos ocupados que el resto de empleados.

 

La UE aprueba la Ley de IA: estas son las prohibiciones, vigilancia y obligaciones​

Ya hablamos de proyecto de la Ley IA de la Unión Europea, pionera en el mundo, que pretendía regular todo lo relacionado con la Inteligencia Artificial dados los riesgos que conlleva. Pues bien, en el día de ayer y tras un largo debate por parte del Parlamento de la UE, esta Ley ha quedado aprobada finalmente, lo que implica una serie de prohibiciones, vigilancia y obligaciones a cumplir por parte tanto de empresas, como de gobiernos, y en algunos casos, de los usuarios. Estas son todas las novedades de la Ley de IA en la UE.

Una toma de decisiones complicada donde, por suerte, la mayoría estaba de acuerdo con las medidas primarias que se estaban tomando. La votación final a favor, en contra o abstención refleja que había un consenso bastante amplio, por no decir mayoritario y por mucho, de todo lo relacionado con esta polémica Ley. No hay más que ver el recuento: 499 votos a favor, 28 en contra y 93 abstenciones.

Ley de IA de la UE aprobada, una base sobre la que trabajar en el futuro​

Como toda Ley que se hace en tiempo récord, solo se ofrece una base de trabajo, el mínimo imprescindible para que se pueda expandir toda la regulación en su conjunto. Como no es una Ley final, sino un proyecto de Ley que tiene que ser muy ampliado, el Consejo de la UE y la Comisión tienen que negociar con los principales actores en representación de los usuarios las reglas a definir, las virtudes, los defectos y los límites, algo realmente complejo en un sector que parece cambiar cada pocos meses.

Por ello, se habla de prohibiciones, vigilancia y obligaciones como nuevos puntos añadidos a dicha Ley, que va tomando forma, y que trataremos ahora. Comenzando por las prohibiciones, se han añadido los sistemas biométricos, es decir, aquellos que pueden identificar a las personas. Se ha hablado de espacios públicos en tiempo real, no se ha dicho nada del interior de las empresas como tal.

La regulación y prohibición expresa indica que no se puede acceder a estos datos sin una orden judicial de por medio, y además, haciendo acopio de lo que hemos vivido en materias como la identidad, la raza o el género, tampoco se dejará que las IA clasifiquen a las personas por estos parámetros. Además, y de forma interesante, tampoco se permite la clasificación por orientación política. Todo esto está regulado dentro de lo que se conoce ya como el Procedimiento Policial Predictivo, muy a lo Minority Report, donde no se permite crear una base de datos con reconocimiento facial, por ejemplo.

La peligrosidad de cada IA será valorada, como ya vimos y recordamos, en cuatro niveles, por lo que dependiendo de cómo funcionen se catalogarán y tendrán más o menos restricciones. Las redes sociales estarían en el punto más bajo ahora mismo, las IA como ChatGPT en el punto más alto por su falta de privacidad, por ejemplo.

Vigilancia y obligaciones​

La UE no va a permitir que una o varias empresas trabajen en IA opacas, es decir, algoritmos entrenados sin saber cómo funcionan. No basta con ofrecer datos y conclusiones, la UE quiere saber cómo funcionan exactamente, lo que va a generar un gran revuelto y seguro muchas noticias y titulares de compañías vs Europa. El mejor ejemplo y que ya vimos es el de OpenAI con ChatGPT y la UE.

Se habla en esta aprobación de la Ley de IA en la UE sobre el hecho de que las empresas deben evaluar a partir de ahora los riesgos que sus productos producen según los modelos de entrenamiento que se usen. Para ello, y como es algo complejo de conseguir, los modelos como tal deben estar registrados en una base de datos de la UE para que puedan operar en el espacio económico europeo, o lo que es igual, para que puedan generar beneficios y trabajar de forma económica dicha empresa en nuestro suelo.

Se requieren requisitos de transparencia como tal. La empresa que desarrolle la IA tendrá que mostrar el contenido generado por la IA y que este no tenga nada ilegal, como información de derechos de autor, que no atente contra la salud de las personas, la seguridad, el estado de derecho y un largo etc casi interminable que veremos si pueden hacer respetar.

Como esto es una trampa burocrática sin precedentes, porque una IA puede abarcar todo, mucho o poco, según como se entrene y su objetivo. La UE quiere y premiará el uso de licencias de código abierto para sistemas de IA con excepciones concretas. O lo que es igual, reducirá la burocracia y requisitos para este tipo de IA, ya que, como hemos dicho, se busca la transparencia, y no hay nada más transparente que el código abierto en estos momentos.

¿Se puede lograr dicha transparencia realmente?​

Es un tema peliagudo. Los datos de entrenamiento son un arma y un secreto con el que las empresas trabajan. Por entenderlo fácilmente, es el kernel del Sistema Operativo, nadie quiere desvelarlo, nadie quiere que otros sepan como funciona, es la clave, lo más básico y donde se centran todos los esfuerzos en la IA.

¿Cómo se va a regular exactamente esto? Habrá empresas que prefieran no exponer sus datos de entrenamiento y no entrar en ciertos espacios económicos. Otros países han visto el problema y pretenden tomar ventaja. Japón, por ejemplo, trabaja en una Ley similar a esta Ley de IA de la UE que ya tiene la aprobación casi por unanimidad, para lanzar su propia versión argumentando que los datos con derechos de autor estarán permitidos. Hablando más claro, Japón no pondrá trabas a si los datos son privados o públicos, si pertenecen a unos u a otros. Las empresas en dicho país podrán usar estos datos para entrenar sus modelos de IA, con todo lo que ello conlleva.

Ya hemos visto los resultados de esto con ChatGPT, que al no tener en ese momento regulación alguna, filtró información confidencial de personas y empresas. Por ello, va a ser interesante comprender hacia dónde va a virar Europa conforme la Ley comience a tomar fuerza y se vean las virtudes y problemas que causa.

 

ChatGPT sufre una fuga de datos: 100.000 cuentas figuran en la Darknet​

La inteligencia artificial cada vez está más presente en nuestras vidas y según va pasando el tiempo, aparecen nuevas y más avanzadas IA que nos sorprenden por lo que son capaces de hacer. La última y que parece que perdurará por mucho tiempo es ChatGPT, el chatbot que emplean decenas de millones de personas de todo el mundo. Si lo has usado y tienes una cuenta de ChatGPT, te advertimos que quizás se encuentra en la Darknet, ya que se ha revelado una fuga de datos que involucra a 101.134 cuentas.

ChatGPT es la evolución de esos chatbots que hemos tenido durante años, con los cuales podíamos charlar y hacerles preguntas. La principal diferencia es que básicamente se empleaban para hablar como si fuesen "humanos", pero no tenían muchas más funciones. Entrenado con LLM y empleando GPT-4, ChatGPT es un chatbot IA que no solo puede charlar con nosotros, sino que además cumplirá las órdenes que le mandemos. Esto lo hace especialmente útil para resolver problemas y dudas de todo tipo, además de buscarnos la información que queremos.

Más de 100.000 cuentas de ChatGPT se encuentran en la Darknet​

Hay personas que están en contra y otras a favor de las IA, pero lo cierto es que estás van a convivir con nosotros como herramientas y en un futuro puede que a sustituirnos casi por completo. Cuando se nos ofrece la posibilidad de poder usar algo con el potencial y la capacidad de ChatGPT de manera gratuita, pocos caen en la tentación de hacerlo. De hecho, también hay muchos que tras observar lo útil que es ChatGPT, deciden suscribirse a la versión de pago.

Todo ha ido bien hasta ahora, pues resulta que ahora se han descubierto más de 100.000 cuentas de ChatGPT disponibles en la Darknet. Este informe proviene de la empresa de seguridad Group-IB situada en Singapur. Esta es considerada una fuga de datos importante, sobre todo en el sector profesional. Por la naturaleza de ChatGPT, toda la información que le entregamos se almacena permanentemente en el historial.

La fuga de datos es real: pueden leer el historial de ChatGPT​

Al parecer, ha habido un total de 101.134 cuentas comprometidas y se obtuvieron los datos de acceso a ChatGPT empleando troyanos. Según ha identificado el Group-IB, estos troyanos no iban dirigidos a víctimas concretas, por lo que su objetivo era infectar la mayor cantidad de sistemas posibles usando ataques de phishing. En el pasado mes de mayo, se registraron un récord de 26.000 datos de acceso robados y esto parece que va a ir en aumento. Las más de 100.000 cuentas de ChatGPT son a nivel mundial, 12.600 de las cuales provienen de la India, la cual ocupa el primer lugar.

A esta, le sigue Pakistán en segundo lugar y Brasil en tercera posición. Esta fuga de datos pone a las cuentas de ChatGPT en la Darknet, comprometiendo la seguridad y revelando información sobre los usuarios. Y es que, en el momento en el que consiguen acceder a una cuenta de ChatGPT, pueden leer todas las preguntas y respuestas realizadas. Esto puede ser un problema a nivel personal, pero más a nivel profesional, sobre todo si se ha revelado información confidencial de una empresa. De hecho, empresas como Samsung prohibieron a sus empleados usar ChatGPT por seguridad.

 
  • Fun
Reactions: Bellorita

ChatGPT sufre una fuga de datos: 100.000 cuentas figuran en la Darknet​

La inteligencia artificial cada vez está más presente en nuestras vidas y según va pasando el tiempo, aparecen nuevas y más avanzadas IA que nos sorprenden por lo que son capaces de hacer. La última y que parece que perdurará por mucho tiempo es ChatGPT, el chatbot que emplean decenas de millones de personas de todo el mundo. Si lo has usado y tienes una cuenta de ChatGPT, te advertimos que quizás se encuentra en la Darknet, ya que se ha revelado una fuga de datos que involucra a 101.134 cuentas.

ChatGPT es la evolución de esos chatbots que hemos tenido durante años, con los cuales podíamos charlar y hacerles preguntas. La principal diferencia es que básicamente se empleaban para hablar como si fuesen "humanos", pero no tenían muchas más funciones. Entrenado con LLM y empleando GPT-4, ChatGPT es un chatbot IA que no solo puede charlar con nosotros, sino que además cumplirá las órdenes que le mandemos. Esto lo hace especialmente útil para resolver problemas y dudas de todo tipo, además de buscarnos la información que queremos.

Más de 100.000 cuentas de ChatGPT se encuentran en la Darknet​

Hay personas que están en contra y otras a favor de las IA, pero lo cierto es que estás van a convivir con nosotros como herramientas y en un futuro puede que a sustituirnos casi por completo. Cuando se nos ofrece la posibilidad de poder usar algo con el potencial y la capacidad de ChatGPT de manera gratuita, pocos caen en la tentación de hacerlo. De hecho, también hay muchos que tras observar lo útil que es ChatGPT, deciden suscribirse a la versión de pago.

Todo ha ido bien hasta ahora, pues resulta que ahora se han descubierto más de 100.000 cuentas de ChatGPT disponibles en la Darknet. Este informe proviene de la empresa de seguridad Group-IB situada en Singapur. Esta es considerada una fuga de datos importante, sobre todo en el sector profesional. Por la naturaleza de ChatGPT, toda la información que le entregamos se almacena permanentemente en el historial.

La fuga de datos es real: pueden leer el historial de ChatGPT​

Al parecer, ha habido un total de 101.134 cuentas comprometidas y se obtuvieron los datos de acceso a ChatGPT empleando troyanos. Según ha identificado el Group-IB, estos troyanos no iban dirigidos a víctimas concretas, por lo que su objetivo era infectar la mayor cantidad de sistemas posibles usando ataques de phishing. En el pasado mes de mayo, se registraron un récord de 26.000 datos de acceso robados y esto parece que va a ir en aumento. Las más de 100.000 cuentas de ChatGPT son a nivel mundial, 12.600 de las cuales provienen de la India, la cual ocupa el primer lugar.

A esta, le sigue Pakistán en segundo lugar y Brasil en tercera posición. Esta fuga de datos pone a las cuentas de ChatGPT en la Darknet, comprometiendo la seguridad y revelando información sobre los usuarios. Y es que, en el momento en el que consiguen acceder a una cuenta de ChatGPT, pueden leer todas las preguntas y respuestas realizadas. Esto puede ser un problema a nivel personal, pero más a nivel profesional, sobre todo si se ha revelado información confidencial de una empresa. De hecho, empresas como Samsung prohibieron a sus empleados usar ChatGPT por seguridad.

¿Darknet? ¿fuga de datos? "el mundo de la nada/oscuridad" es donde reside la "inteligencia artificial" que es el mal/el caos, claro que lo esta leyendo todo, pero no por "una fuga" si no porque se lo estan contando todo a "el" directamente.

¿Pocas personas se resisten a utilizarlo? me alegro de ser una de esas pocas, lo maximo que hice fue "entrar" en "google" y hacer una busqueda, en cuanto vi que habia que crear una cuenta ya me di cuenta de que iban a almacenar (y manipular, si considerasen necesario) todas las "conversaciones" que pudiera tener.

Y ahora dicen que hubo una "fuga" a una tal "darknet" (a día de hoy todo "internet" es la "darknet" 😏).

Pues nada, sigamos jugando gente (como decia Karlos Puest), los que ya sabemos no nos van a engañar, pero seguiremos alucinando con todo esto.
 

La IA como ChatGPT y Bard está llenando Internet de webs y spam basura​

Sin duda la IA tiene una serie de cosas realmente positivas que podrán ayudarnos como especie a seguir mejorando y a un ritmo incluso más alto de lo que estábamos haciendo ahora. Pero también tiene muchas partes negativas y aunque alguna la hemos tratado, hoy toca hablar de lo que están haciendo en Internet, ya que muchas webs están llenando la red de auténtico spam basura gracias a la IA, que encima muchas cobran.

Tenemos que hablar de las granjas de contenido, un problema que va desde conseguir followers por un módico precio, views o cualquier otro acto que implique mejorar los ratings de un creador de contenido o empresa. En este caso, la IA también ha entrado a actuar de manos de empresas que se están beneficiando de una serie de marcas, las cuales están apoyando involuntariamente la difusión de contenido falso, un tema complejo sin duda.

NewsGuard detectó 141 marcas que están pagando a sitios webs con IA, los cuales generan spam basura​

Y no es que esto esté mal de por sí, cada uno se gasta el dinero en lo que quiere y estas 141 empresas pueden hacer lo mismo. El problema es cuando estas pagan a sitios y webs de noticias que están generando el contenido con una IA, siendo este de baja calidad o nula, además, sin supervisión humana de por medio.

El informe hace referencia a Google y su Ads, puesto que el enfoque de las empresas que reciben financiación de las marcas no es el indicado. Estos colocan anuncios independientemente de la naturaleza del sitio web, se podrían catalogar perfectamente de random, que mandan mensajes incongruentes, erráticos y que tienen en su haber nombres de marcas que están pagando un dinero por un contenido y posicionamiento nulo.

Algunas de esas webs viven de colocar de forma totalmente automática hasta 1.200 "artículos" al día gracias a la IA. Por lo tanto, estas webs están llenando Internet de contenido basura con el único fin de cobrar por una publicidad que ni siquiera está supervisada, es un bot lanzando artículos sin sentido.

Bancos, servicios financieros, almacenes, ropa deportiva​

Hay empresas de todo tipo que no tienen constancia alguna de cómo se está gestionando el dinero en publicidad que están pagando, puesto que el sistema que usan estas webs es realmente complejo de detectar:

La publicidad programática utiliza algoritmos y procesos de subasta avanzados para entregar anuncios digitales altamente dirigidos directamente a usuarios individuales, en lugar de sitios web específicos. Esto significa que los anuncios efectivamente "siguen" a los usuarios mientras navegan por Internet.

Debido a que este proceso es tan opaco, es probable que las marcas subyacentes en este informe no tengan idea de que están financiando la difusión de los sitios web de UAIN (noticias generadas por inteligencia artificial no confiable), ya que los anuncios se compran a través de terceros y hay múltiples intermediarios involucrados.

Por ello, se pueden encontrar anuncios con errores tan fáciles de ver como los que afirman que "Lo siento, como modelo de lenguaje de IA, no puedo acceder a enlaces externos o sitios web por mi cuenta". Esto ya es un problema, pero lo peor de todo es que Google no puede, o no quiere, hacer nada contra esto pese a que sus políticas publicitarias establecen que no pueden "colocar anuncios publicados por Google en páginas" que incluyan "contenido generado automáticamente como spam", que define como, entre otras cosas, "contenido generado mediante programación sin producir nada original o agregar suficiente valor".

Es, de momento, imposible de parar​

El ritmo que siguen estas webs y lo difícil de detectar la mano que está detrás y que mueve los hilos está llevando a que una web random cualquiera, con un esfuerzo mínimo, se esté aprovechando de una publicidad pagada por una marca que, además, esta no puede controlar.

Un ejemplo simple es el número de artículos que hemos nombrado, donde, por lanzar un símil, The New York Time puede publicar 150 noticias en un día de máximo trabajo. Estas webs lanzan 1.200 al día y sin esfuerzo, y eso sin contar widgets publicitarios y otras técnicas. Por ello, Internet se está llenando de spam basura donde las IA como ChatGPT y Bard están trazando un rumbo muy oscuro gracias a unas personas que las están usando para lograr un beneficio a costa de los demás.

 

Escritores demandan a OpenAI y Meta por usar su contenido para entrenar sus IA​

Tres escritores han demandado a OpenAI, la empresa creadora de ChatGPT, y a Meta, por una violación de sus derechos de autor. Si bien esto sorprende cuando hablamos de una IA generativa, no olvidemos que requiere de una serie de información existente para entrenarla. De ahí la frágil relación entre la inteligencia artificial y propiedad intelectual, algo que se ha convertido en un tema polémico recientemente.

No hay duda que las IA generativas están de moda, se utilizan para generar texto, imágenes e incluso vídeos de forma automática. Si bien estos distan mucho de llegar a la perfección o ser totalmente creíbles, poco a poco van mejorando sus capacidades. Sin embargo, inteligencia significa que tiene la capacidad de aprender y los algoritmos de IA aprenden con cantidades ingentes de datos. ¿Qué ocurre cuando la IA aprende de un contenido con derechos de autor? Pues lo que podemos ver hoy, que es el inicio de demandas legales por apropiarse de algo que no es suyo.

Tres escritores demandan a OpenAI y a Meta por derechos de autor

Dos autores de libros estadounidenses se han sumado a la comediante Sarah Silverman en una serie querellas conjuntas contra OpenAI y Meta. Los tres acusan de que estas compañías usan su contenido para entrenar a sus respectivas inteligencias artificiales. En concreto, los autores acusan a la compañía de estar empleando sus libros sin autorización para crear los modelos de lenguaje, los cuales se utilizan para replicar el lenguaje natural de los seres humanos de la forma más creíble posible.

Las pruebas que han presentado se basan en información filtrada de Meta. Esta demostraría que el contenido de sus libros se encontraría entre la información utilizada por la empresa de Facebook para entrenar a su IA. En cuanto a la acusación a OpenAI, se basa en que los resúmenes dados por ChatGPT concuerdan con contenido que copyright, aunque en este caso, la querella es un poco más débil.

En cuanto a la compensación por los daños, por el momento no se sabe la cantidad de dinero que han pedido. Por otro lado, se ha de tener en cuenta que, en caso de que los demandantes ganen, esto podría sentar un precedente, donde los diferentes creadores de contenido podrían vetar a OpenAI, Meta y otras compañías similares a usar su contenido de cara a seguir desarrollando ChatGPT y otras soluciones similares.

La IA roba contenido, pero no voluntariamente

A la hora de entrenar una IA lo que le estamos enseñando es que aprenda una serie de patrones y qué soluciones son las correctas. Por lo que tarde o temprano, entre todas las permutaciones generadas terminará generando una que sea igual a los datos de entrada. La causa de ello no será otra que esos datos son los correctos y tendrán el visto bueno por parte de la supervisión del propio algoritmo de creación de contenido.

Es decir, las IA generativas suelen tener otra que hace de supervisor y se encarga de descartar los resultados incorrectos. Obviamente, si el resultado final es exactamente igual que un dato que se ha empleado para entrenarla, el supervisor le dirá que dicho dato es correcto. La lógica detrás de la demanda por parte de los escritores a OpenAI y a Meta es fácil de entender desde esa perspectiva, ya que tarde o temprano, sin saberlo esta misma, el contenido generado por las IA será el que se ha introducido con copyright

Simple y llanamente, si se saca el material con derechos de autor de la base de datos, entonces las posibilidades que la IA lo acabe replicando involuntariamente al generar contenido bajaran considerablemente, evitando así los plagios involuntarios. En todo caso, veremos qué sale de esta demanda y que precedentes legales puede sentar, en especial, en los Estados Unidos.

 

La IA amenaza el 27% de los puestos de trabajo ¿conservarás tu empleo?​

Si nos paramos a pensar en lo mucho que hemos progresado en cuanto a tecnología, al final acabamos mencionando a la IA. Con ChatGPT nuestra sociedad ha cambiado hasta tal punto, que tememos nuestro presente y futuro según avance la inteligencia artificial. Hablamos de presente también por el hecho de que se estima que el 27% de los puestos de trabajo actuales están siendo amenazados por la IA, lo que significa que nuestro empleo está en peligro.

Si nos vamos unos años atrás en el tiempo, pensar que la IA sería capaz de hacer lo mismo que ChatGPT era algo que no visionábamos. Es cierto que en libros y películas de ciencia ficción teníamos esa visión de que la IA sería capaz de sustituir a los humanos. Muchas veces lo hemos imaginado con oleadas de robots y androides que van a trabajar por nosotros. Por ahora no hemos llegado a ese punto, pero con la IA si podemos decir que se ha cumplido una de nuestras mayores preocupaciones.

El 27% de los puestos de trabajo están en peligro debido a la IA​

Que nuestro trabajo esté en peligro por ChatGPT no es algo realmente nuevo. Hemos visto empresas como Domestika reemplazar a sus trabajadores por la IA. Es más, incluso la legendaria IBM anunció que 7.800 de sus empleados serían sustituidos por la IA en los próximos 5 años. Aquí es cuando empezamos a temer y preguntarnos de si podremos permanecer en nuestro puesto de trabajo o no. Lo cierto es que no lo sabemos con certeza, ya que el futuro es totalmente desconocido.

Lo que si se ha descubierto, es que la Organización para la Cooperación y el Desarrollo Económico (OCDE), asegura que la IA amenaza el 27% de los puestos de trabajo actuales. Este elevadísimo porcentaje justifica con creces el miedo que le tenemos al futuro, ya que la IA avanzará aún más. La OCDE asegura que la adopción de la IA en el mercado laboral sigue siendo baja, pero como todos sabemos, es solo cuestión de tiempo que ocurra.

Mathias Cormann, el secretario general de la OCE, asegura que el mercado laboral sigue resistiendo el fuerte impacto de la IA. No obstante, si añadimos la alta inflación y el aumento de los costes, podemos entender que no solo necesitamos más que nunca trabajar para vivir, sino que además es un escenario perfecto para que una IA se interponga.

La amenaza de la IA aumenta las preocupaciones de nuestro futuro laboral​

ChatGPT es más económica que mantener la nómina de un trabajador y esta IA es capaz de realizar tareas con mayor rapidez que un humano. Cormann opina que la IA ha avanzado a un ritmo impresionante y que esta es positiva a la hora de conseguir maximizar los beneficios por unidad de tiempo. Aun así, considera que debe realizarse una colaboración internacional para llegar a un punto donde la IA pueda aprovecharse sin apenas riesgo para los trabajadores. Ahora, si te preguntas que puestos de trabajo son los amenazados por la IA, lo cierto es que no se ha proporcionado un listado.

Básicamente si tienes una ocupación altamente cualificada, aquellos puestos de trabajo de ingeniería y de mayor complejidad en general, eres el que menos riesgo tienes de ser reemplazado. En cambio aquellos empleos que son mucho más sencillos, tienen un mayor riesgo de ser automatizados. Recordemos que todo lo que sea por escrito, como esta noticia, es muy fácil de sustituir con una IA. Así pues, cualquier empleo que dependa de escribir correos electrónicos, solventar dudas por escrito y similares, esos son los más vulnerables.

No todo es negativo por suerte y hay aspectos positivos, ya que con la IA se podrán reducir las tareas repetitivas y peligrosas. Lo cierto es que lo negativo gana esta vez como el pensamiento general en el ámbito laboral, pues tres de cada cinco trabajadores están preocupados por perder su empleo y en caso de no ocurrir, creen que se reducirá su salario por culpa de la IA.

 

Elon Musk desafía a OpenAI con el lanzamiento de xAI​

Todos hemos visto como hemos pasado de usar la inteligencia artificial para Siri, Alexa y poco más, a llegar a algo como Midjourney o ChatGPT que nos hace lo que le pidamos. El uso de la IA se extiende cada vez más y vemos como ChatGPT es una presencia dominante en la sociedad. Parece que nadie puede rivalizar con esta IA, pero resulta que Elon Musk está dispuesto a competir contra OpenAI con el lanzamiento de xAI.

Desde que llegó ChatGPT a nuestras vidas hace unos meses, la sociedad entera está expectante por saber y descubrir todo lo que hace esta IA. El chatbot creado por OpenAI ha permitido que tanto usuarios como empresas se beneficien de el. Le podemos pedir a la IA que nos ayude en todo tipo de tareas, como generar código de programación, responder nuestras dudas o escribir correos. De hecho, incluso se había descubierto una forma de generar licencias de Windows con ChatGPT.

Elon Musk anuncia el lanzamiento de xAI, su nueva empresa de IA​

Empresas como Google han intentando competir contra OpenAI y han fracasado estrepitosamente. Google lanzó su chatbot IA Bard, que no ha cosechado la fama que esperaba. Otras compañías como Microsoft, directamente decidieron aliarse con OpenAI, pues invirtieron cientos de millones en ella. Esto acabó resultando en que toda la suite Office y el buscador Bing tuvieran implementada una IA similar a ChatGPT.

Si seguimos hablando de la competencia, Elon Musk anunció hace unos meses que iba a fundar una nueva empresa dedicada a IA. Bajo el nombre de xAI, sabíamos que Musk quería apostar todo por la IA generativa y para ello ya había hecho preparativos previos. Uno de estos fue comprar 10.000 GPU NVIDIA mientras que otro era crear TruthGPT, la IA que busca la verdad.

Ahora por fin, Elon Musk ha anunciado oficialmente el lanzamiento de xAI, su nueva empresa de inteligencia artificial que llega para competir contra OpenAI. Musk ha conseguido reclutar a un equipo de ingenieros de empresas tecnológicas estadounidenses con el intento de derrotar a este duro rival.

Musk quiere competir contra OpenAI y ChatGPT​

Dentro de xAI de Elon Musk, tenemos a ingenieros y científicos de Google, Microsoft y hasta de OpenAI con la que competirá. También ha contratado a Dan Hendrycks, director del Center for AI Safety, como asesor de xAI. Este se encargará de reducir los riesgos que provoca la inteligencia artificial, por lo que podemos decir que Musk ha cubierto todos los frentes. Respecto al secretario de la nueva empresa, este es Jared Birchall, el CEO de Neuralink.

En la web de xAI, se anuncia que el equipo ha trabajado y dirigido el desarrollo de los mayores avances en el campo de la IA como AlphaStar y GPT-4. La empresa sigue buscando ingenieros e investigadores con experiencia, por lo que seguirá ampliando su plantilla de trabajadores. Aprovechando que Elon Musk posee varias empresas, xAI colaborará con Twitter y Tesla. Ahora es cuestión de tiempo para ver si Elon Musk es capaz de cumplir su palabra y hacer que xAI sea rival o incluso supere a OpenAI y ChatGPT.

 

Un CEO sustituye al 90% de su plantilla de trabajadores por una IA​

El uso de la inteligencia artificial para ayudarnos a realizar distintas tareas es algo que cada vez se vuelve más habitual. Esto ha permitido que podamos aumentar nuestra productividad, pero también ha permitido que la IA sea capaz de sustituirnos en el trabajo. No debería sorprenderte que ChatGPT es capaz de hacer ciertos trabajos con soltura y de manera más rápida que los humanos. Lo que si resulta sorprendente, es que un CEO haya decidido sustituir al 90% de sus trabajadores dedicados a tareas de asistencia y soporte al cliente por una IA.

Resulta sorprendente ver los avances de la inteligencia artificial, pues en muy poco tiempo ya es posible hacer de todo con la IA. La capacidad de poder asignarle tareas y que nos las haga por nosotros era algo que solo podíamos imaginar tiempo atrás. Los chatbots como ChatGPT cumplirán las órdenes que le mandemos, sea a la hora de crear unas líneas de código de programación, escribir un correo formal o crear el guion de una película.

El CEO de Dukaan sustituye al 90% de sus trabajadores por una IA​

Siempre que no incumpla las normas, podemos pedirle a IA como ChatGPT que hagan lo que queramos. Si a esto le sumamos su capacidad de trabajar mucho más rápido que un ser humano y ser mucho más económica, al final, las empresas toman la decisión de reemplazarnos. Goldman Sachs estimó que en tan solo 10 años, la IA sustituirá a 300 millones de trabajadores, una cifra que asusta. Actualmente, ya hemos visto compañías como Domestika y la famosa IBM sustituir a sus trabajadores por una IA.

Ahora un CEO de una startup india ha decidido que no quiere tener más empleados encargados de asistencia al cliente. Este CEO ha sustituido a nada menos que el 90% de sus trabajadores encargados del soporte por una IA y no, no se trata de ChatGPT. Summit Shah, CEO de la empresa Dukaan, es quien decidió usar un chatbot IA capaz de reemplazar a casi toda la plantilla y lo mejor de todo es que solo tardaron 2 días en desarrollarlo.

La IA reduce el tiempo de respuesta en un 98% y el coste en un 85%​

Los resultados obtenidos tras reemplazar a los trabajadores por este chatbot IA son más que sorprendentes, pues el CEO asegura que el tiempo medio de respuesta se ha reducido en un 98%. Este asegura que los trabajadores humanos tardaban en responder una media de 1 minuto y 44 segundos, mientras que la IA responde al instante. Para este CEO, sustituir a sus trabajadores por este chatbot IA ha sido la mejor decisión que ha podido tomar.

Según Shah, los despidos involucraron a 23 empleados de la empresa y fueron realizados en septiembre. Dado que se trata de una empresa emergente, su prioridad es buscar la mayor rentabilidad. Reemplazar a sus empleados por la IA permite cumplir este objetivo, reduciendo en un 85% el coste de su servicio de atención al cliente. El cambio de humanos a IA ha permitido solventar los problemas en el área de soporte al cliente, debido al retraso de las respuestas y la disponibilidad limitada de los trabajadores. Aun así, Shah cree en un futuro donde la IA y los seres humanos puedan trabajar juntos para lograr un mejor resultado.

 

Hollywood se pone en huelga contra los dobles digitales por IA​

El sindicato de actores de cine y televisión más grande de Hollywood, el SAG, ha entrado en una confrontación contra las productoras y distribuidoras de cine y televisión más importantes y se ha puesto en huelga. ¿El motivo? Los derechos de uso de los llamados dobles digitales creados a través de IA que duplican tanto la voz cómo la imagen de los actores y actrices.

Uno de los temores más grandes relacionados con las inteligencias artificiales generativas es que le quite el puesto de trabajo a muchas personas. Y claro, si eres actor o actriz, y de repente te ves en una escena que no has grabado emitiéndose en una pantalla, pues lo normal es que empieces a molestarte y a sentirte inseguro ante la idea que una máquina puede reemplazar tu trabajo. Lo que más moleste, es que pese a que se utilice tu cara y voz en una película... no cobrarás nada por ello.

El SAG, el principal sindicado de Hollywood, en de guerra contra los dobles digitales​

Los dobles digitales son una representación de un elemento de la realidad que se usa para conocer su funcionamiento. Lo habitual es que los dobles digitales se asocien a cosas como el funcionamiento de una ciudad, un coche o incluso una planta de montaje. Sin embargo, con la cantidad de información audiovisual que existe de los actores y actrices, se vuelve posible crear dobles digitales de los profesionales de la interpretación en muy poco tiempo. Y claro, para mucha gente las interpretaciones de un actor o actriz son importantes, y pueden ser un motivo para ver una película. Sin embargo, lo que aterra a los profesionales del sector se entiende mejor si leemos las palabras del representante del SAG, Duncan Crabtree-Ireland, las cuales pintan un futuro distópico.

Proponen que nuestros actores de fondo puedan ser escaneados, recibir un pago por un día de trabajo y que la compañía sea dueña de ese escaneo de su imagen, su semejanza, y que pueda usarlo por el resto de la eternidad. Así que si creen que esa es una propuesta innovadora, les sugiero que lo piensen de nuevo

Esto ha hecho que SAG-AFTRA, el cual es el sindicato más grande de Hollywood, con 160.000 profesionales, haya decidido ir a la huelga. Lo que ha puesto patas arriba todo el mundo del cine y la televisión.

La AMPTP afirma que son exageraciones​

En representación de las productoras de cine se encuentra la AMPTP, quienes han salido a tachar de exageraciones las palabras del Duncan Cabtree-Ireland. La aclaración, por su parte, es que solo se podrá utilizar la imagen del actor o actriz en la película con la que tenga contrato en ese momento y no indefinidamente. Cualquier uso que vaya más allá de lo estipulado en los contratos de cada producción deberá tener el consentimiento por parte del profesional de la interpretación.

Entre las empresas que son representadas por la AMPTP, se encuentran grandes estudios como Walt Disney Studios y distribuidoras de contenido como Netflix, entre muchas otras. Todo el lio que se ha montado viene por unas declaraciones recientes de la propia entidad, en la que dijeron haber recibido una propuesta de inteligencia artificial relacionada con los actores y actrices. Algo que he puesto al mayor sindicato de actores en alerta. Veremos cómo termina la cosa, pero es evidente que será muchísimo más económico escanear la cara de una persona y emplearla en películas, que pagar a uno de los mejores actores durante meses hasta la finalización del grabado de la película. De esta forma, es evidente que se busca abaratar estos costes.

 

James Cameron cree que la IA acabará con la humanidad: «os avisé en 1984 con Terminator»​

En ocasiones nos da miedo pensar en el futuro de la IA. Todos esos libros, series y películas de ciencia ficción nos han hecho ver un futuro distópico controlado por una inteligencia artificial malvada. Películas como Terminator y su Skynet nos daban esa sensación y su director, James Cameron, nos advierte de que la IA es un peligro para la humanidad.

Lo rápido que avanza la IA nos hace pensar en lo mucho que hemos progresado en este sector. Si echamos la vista atrás, recordamos como los chatbots eran aclamados por poder mantener conversaciones como si fuesen casi seres humanos. Pero si lo pensamos mejor, eso también daba esa pequeña posibilidad de que pudiera rebelarse y acabar contra el ser humano. En todos estos años no ha ocurrido nada preocupante y la IA ha seguido progresando viendo como luego empezamos a tener asistentes virtuales por voz como Siri.

James Cameron, director de Terminator, advierte sobre los riesgos de la IA​



Pero de ahí a lo que tenemos actualmente no hay comparación, pues ahora mismo la inteligencia artificial puede hacer nuestro trabajo y acatar órdenes escritas. En el momento una IA como ChatGPT responde, la mayor parte de la gente va a confiar en que la respuesta es correcta, aunque pueda llegar a confundirse. El hecho de que la inteligencia artificial este siendo cada vez más relevante es algo que se considera positivo y negativo, dependiendo del enfoque. Muchos piensan que la IA es un riesgo para la humanidad y entre estos, tenemos a nada menos que James Cameron, el director de películas como Aliens, Titanic, Terminator o Avatar.

Precisamente este ha sido el creador de una de las sagas de películas donde la IA se ha vuelto malvada y busca acabar con la humanidad. Es curioso como el creador de esta saga de ficción comparte sus temores sobre la inteligencia artificial presente en la vida real. Según James Cameron, si la IA llega a convertirse en un arma, hay muchas probabilidades de que pierda el control y se convierta en enemigo de la humanidad a lo Terminator.

Cameron teme que sobre una IA que se convierta en un arma para uso militar​

terminator robot


El mismo director ya nos dice que él nos advirtió cuando llegó Terminator a los cines en 1984. La probabilidad de que la IA se convierta en un arma puede resultar algo imposible, pero hay que tener en cuenta los fines militares y ventajas que esto supondría. Aquí es cuando se tiene en cuenta la posibilidad de combinar las armas nucleares con una IA inteligente y solo de pensarlo, ya se nos ponen los pelos de punta.

James Cameron sabe lo mucho que temería la humanidad una inteligencia artificial que asumiera el control de algo así. La IA es mucho más rápida a la hora de calcular y tomar decisiones, haciendo que los seres humanos no seamos capaces de luchar. Ahora dejando atrás la IA para uso militar, James Cameron ha opinado sobre otros usos más allá de crear el escenario de Terminator.

Por ejemplo, según Cameron, una IA no tiene la capacidad de generar un buen guion e historia, ya que lo único que sabe es mencionar lo que otras personas ya han inventado. Al director no le preocupa la inteligencia artificial cuando se trata de guiones por ahora, ya que en un futuro si esto cambia no descarta darle uso. Según él, si dentro de 20 años una IA gana un Oscar al mejor guion, ese será el momento a acudir en su ayuda.

 

OpenAI, Google y otras compañías prometen marcas de agua en contenidos generados por IA​

La IA nos ha hecho ser mucho más productivos en nuestro día a día, pudiendo crear contenido a una velocidad impresionante y todo, sin tener que meternos en complejos programas y procedimientos. IA como Midjourney nos permiten crear imágenes y en ChatGPT podemos pedirle que nos haga muchas más cosas. Las compañías como OpenAI, Amazon y Microsoft han asegurado que se encargarán de resolver los problemas actuales, prometiendo una mayor seguridad y marca de agua en los contenidos generados por IA.

La capacidad de poder crear todo tipo de contenido sin tener que invertir días en ello es posible, pues gracias a la inteligencia artificial tardaremos unos pocos minutos o incluso segundos. Esto hace que la capacidad de producir aumente de forma abismal e Internet se llene de todo tipo de contenido. El problema que esto genera, es que aquellos que se dedicaban a producir este contenido como su trabajo, ahora ven que su esfuerzo no se valora. Los artistas son unos de los más afectados, pero también ha llegado a la fotografía o incluso a la música.

Se implementarán marcas de agua en contenido generado por IA para diferenciarlo​

Ayer vimos como el artista Greg Rutkowski, que había trabajado en Dungeons & Dragons, Disney y Blizzard, había sido una víctima de la IA. El hecho de que la inteligencia artificial se entrene con todo tipo de artistas (incluyendo el propio Greg) y sea capaz de hacer arte con su propio estilo, le dejaba un futuro incierto en la industria. No solo su contenido, sino también su nombre iba ligado a imágenes creadas enteramente por la IA.

Esto es un suceso que cada vez afecta a más personas y por ello se pide que haya una serie de cambios. Ahora un gran número de compañías que invierten en IA como son Amazon, Meta, Microsoft, Google, Anthropic y como no OpenAI, han decidido que implementarán marcas de agua en los contenidos generados por IA. Estas tendrán el objetivo de evitar que el contenido por IA domine todo Internet y como no, diferenciar entre lo creado por Inteligencia Artificial y lo que no.

OpenAI, Google, Microsoft y otras prometen una mayor seguridad en IA​

Poco a poco la IA está adueñándose de la industria y esto afecta a varios sectores. Ya hemos visto como varias compañías han decidido reemplazar a sus trabajadores por algo como ChatGPT y no nos extrañaría que las IA futuras afecten a más trabajos. Es solo cuestión de tiempo de que la inteligencia artificial proporcione mejores resultados y cada vez sea más difícil discernir entre lo humano y lo artificial.

Además de la marca de agua, las compañías como OpenAI, Google y Microsoft han acordado realizar inversiones adicionales en ciberseguridad. El uso de herramientas como ChatGPT para desarrollar proyectos o escribir código es algo que, al final, se queda con todo lo que hemos escrito para su propio entrenamiento. Lo peor es que han conseguido acceder y filtrar cuentas de ChatGPT donde se pueden acceder a todos estos datos. Compañías como Samsung ya prohibieron a sus empleados usar este chatbot por temor a robos y fugas de datos, por lo que hay que tener en cuenta una mejora del sistema de seguridad.

 

Gizmodo España cierra, despide a su plantilla, la sustituye por una IA y pasa esto…​

No es ninguna sorpresa mencionar como la inteligencia artificial está acabando con el trabajo de cada vez más empleados. De hecho, la inteligencia artificial es más que capaz de escribir noticias como esta, por lo que era cuestión de tiempo que algo sucediera en este sector. El propietario de Gizmodo ha decidido despedir a toda la plantilla de trabajadores del sitio web en español, sustituyéndolos por una IA que se encarga de traducir las noticias.

Trabajos como el de la atención al cliente se han visto muy afectados por el auge de la inteligencia artificial. Esta ha demostrado como es capaz de atender las peticiones y dar respuestas efectivas. El punto fuerte de la IA es precisamente poder acatar órdenes y darnos respuestas escritas. Aquí chatbots como ChatGPT han dado unos resultados fabulosos y nos han ido sorprendiendo en como pueden hacer su trabajo. Este ha sido precisamente el que ha iniciado esta nueva era donde tememos ser sustituidos en nuestro puesto de trabajo.

Gizmodo España despide a sus redactores y los sustituye por una IA​



Probablemente te suene Gizmodo, por ser uno de los sitios webs de noticias de tecnología más conocidos. Este fue fundado en 2002 por Peter Rojas y su contenido original fue en inglés. No fue hasta 2005 cuando se empezaron a publicar las noticias de Gizmodo en otros idiomas gracias a Gawker Media. Sin embargo, esta entró en quiebra en agosto de 2016 y Gizmodo pasó a formar parte de Univision Communications. Establecido como Gizmodo Media Group, finalmente fue vendido a Great Hill Partners en 2019.

Gizmodo ha estado publicando sus noticias en idiomas como francés, alemán, italiano y por supuesto, español, un trabajo que han llevado a cabo desde 2005. Ahora, el propietario de Gizmodo y G/O Media ha decidido decir adiós a los trabajadores del sitio web en español. Este equipo era el encargado de adaptar al español las noticias originales del sitio web y además se encargaban de publicar artículos originales. Todo esto no parece haber sido una razón suficiente para mantener las nóminas de este equipo de trabajadores. Es por ello que el pasado 29 de agosto fue cuando todos fueron despedidos para ser reemplazados por una IA que únicamente se encarga de traducir los artículos de la web en inglés al español.

Encontramos errores de todo tipo en las noticias traducidas por la IA​

Titulares Gizmodo

Cuerpo noticia Gizmodo IA


Mucho se habla de como la IA es capaz de hacer un mejor trabajo que los seres humanos, pero este no parece ser el caso. Con dar un vistazo a la web española de Gizmodo con la IA a cargo, vemos incongruencias en el texto, fallos a la hora de traducir, titulares que no tiene mucho sentido y un largo etcétera. Los redactores humanos, ya de por sí cometemos errores y no somos perfectos, pero cuando prácticamente todas las noticias con la IA los poseen en mayor o menor medida, es para preocuparse. Podemos ver como también hay errores con las mayúsculas, se cortan los párrafos a mitad, se traducen términos que mejor los dejamos en la versión original (como One Piece o Magic).

Hemos adjuntado capturas de algunos titulares y noticias de esta IA, donde vemos que a pesar de que solo se encarga de traducir automáticamente, comete algunos fallos garrafales. Lo mínimo que podemos ofrecer en el caso de que sean noticias en inglés para un medio español, es que al menos se eviten la mayor cantidad de faltas. Además, no debemos crear confusión con los términos para así hacer que el lector medio pueda entenderlo en la medida de lo posible. En el caso del sitio web español de Gizmodo, veremos como progresa a partir de ahora, aunque parece que va a sufrir bastante por este tipo de errores.

 

Un CEO prueba ChatGPT y termina despidiendo a todo su equipo de atención al cliente​

Hoy nos encontramos con una noticia más donde la IA ha reemplazado a personas reales, y en esta ocasión fue ChatGPT en un centro de atención al cliente. En concreto, fue en la India donde Suumit Shah, el CEO de una plataforma de comercio electrónico, llamada Dukaan, descubrió ChatGPT. Según indicó, no estaba satisfecho con su equipo de atención al cliente. Al parecer, sus agentes eran poco efectivos haciendo su labor. Daban respuestas genéricas, y ante las preguntas más complicadas, no sabían dar respuesta.

Tras esto, decidió probar ChatGPT, dándose cuenta que este chatbot podía responder a las preguntas con respuestas intrincadas y realistas. Tras esto, pesó que ChatGPT era la solución perfecta para podía arreglar la atención al cliente en línea de su plataforma.

ChatGPT fue entrenado con el contenido de ayuda con su empresa y fue bautizado como Lina​

Tras poner en funcionamiento a Lina, y dejar que respondiera a casi todos los mensajes ligados con el servicio al cliente, descubrió que los clientes estaban muy satisfechos. Medio año después, el CEO de Dukaan terminó despidiendo a sus 27 de sus agentes de servicio al cliente. Lina había conseguido ganar su particular batalla.

"Para mí fue una obviedad sustituir todo el equipo por un bot", dijo según el Washington Post. "Es como 100 veces más inteligente, es instantáneo y me costó como la centésima parte de lo que solía pagar al equipo de soporte."

Tal y como has podido ver, a los trabajadores humanos no se los puso fácil. Es evidente que ChatGPT supera en inteligencia a cualquier mortal. También es capaz de dar una respuesta instantánea, puede trabajar las 24 horas del día, y el principal causante de todo, es el ahorro de costes. Y es que claro, la versión más potente de ChatGPT (GPT-4), tiene un coste de apenas 20 dólares al mes.

Millones de trabajos en países "granja" de atención telefónica en riego​

Esto es solo un ejemplo, no impide que cualquier compañía con un centro de atención al cliente reemplace a humanos por una IA como ChatGPT. Es por ello que los economistas y los expertos en desarrollo de la mano de obra afirman que el cambio podría tener un profundo efecto en las economías de todo el mundo. Especialmente en países como India, Filipinas, o Latinoamérica (para el mercado español), donde los centros de llamadas proporcionan a millones de personas un trabajo modestamente remunerado

"Acabaremos viendo cómo se destruyen muchos puestos de trabajo", afirma Sharad Sharma, cofundador de la Fundación iSPIRT, un grupo de expertos en tecnología sin ánimo de lucro de la India. "Y los pocos empleos que quedarán serán de distinto tipo".

En una encuesta de septiembre a más de 300 líderes de TI y centros de llamadas, el 80 por ciento dijo que los productos de IA conversacional serán "imprescindibles" para sus empresas en el futuro. Lo más preocupante, es que el 52 por ciento de las empresas encuestadas informaron que ya habían invertido en la tecnología. El gran problema es que muchas personas han comenzado a conocer que existe la IA cuando ya tienen su puesto de trabajo en riesgo.

"En todas las amenazas de automatización anteriores, la automatización consistía en automatizar los trabajos duros, sucios y repetitivos", dijo Ethan Mollick, profesor asociado de la Escuela de Negocios Wharton de la Universidad de Pensilvania.

"Esta vez, la amenaza de la automatización está dirigida directamente a los empleos más creativos y con mayores ingresos que... requieren la mayor formación académica".

 

Llegan las novias IA: el fin del contacto humano entre sexos que acabará con la familia y los hijos poco a poco​

Seguramente has escuchado sobre inteligencia artificial últimamente, pues está en boca de todos y en todas partes. Cada vez aparecen más noticias hablando sobre esto o incluso en redes sociales se revelan más usos viables de la IA. Utilizarla a nuestro favor para generar dinero es algo que han decidido hacer algunas personas, pues te sorprenderías de sus usos. Puede resultarte absurdo la idea de tener una novia con IA, pero en Taiwán están temiendo que esto acabe con las relaciones entre los jóvenes y no haya interacción con mujeres reales.

Sabemos que la inteligencia artificial nos permite generar todo tipo de contenido, como imágenes, libros o música. El hecho de que podamos sacarle partido a nivel económico a esto, hace que mucha gente se interese y se llegue incluso a saturar el mercado y la web de algo como el arte generado por IA. Por otro lado, hay quienes están buscando otras formas de aprovechar la IA a su favor y de aquí tenemos las influencers que crean sus dobles digitales. Estos funcionan como una especie de novia virtual con la personalidad y voz de la persona. A pesar de ser un servicio caro, funciona muy bien a nivel de ganancias económicas.

Taiwán dispara las alarmas por culpa de las novias IA, ¿el fin de las relaciones?​



Como ya imaginarás, todo lo que genera dinero atrae aún más ideas de negocio y sin duda, lo de las novias virtuales con IA es algo que está empezando a notarse. Servicios como Kupid proporcionan servicios de novia IA disponible 24/7 para satisfacer a los usuarios. Además, en el momento en que estos pagan, empiezan a desbloquear funciones exclusivas. Las novias virtuales de Kupid se encargarán de cumplir los deseos acordes a las preferencias y gustos que tengan los usuarios, para adaptarse a sus fantasías.

Algo similar vimos en otra noticia con el roleplaying de juegos subidos de tono hace poco, donde empezaban a usar chatbots con IA que podían mandar mensajes de texto y voz. Como podemos imaginar, aquellos que han tenido malas experiencias en relaciones con humanos reales, se encontrarán más cómodos con este nuevo tipo de "relación". En Taiwán ya están surgiendo las preocupaciones del impacto de estas novias IA, ya que temen que se reduzcan en gran medida las relaciones entre los jóvenes.

Habrá quienes quieran quedarse con la IA y no relacionarse con personas reales​

Utilizar las IA para cosas de este tipo, puede hacer que la persona se acostumbre a un tipo de relaciones que realmente no existen en la vida real. Aquí se pueden crear situaciones idílicas con una IA que sabe exactamente lo que se quiere. En Taiwán ya están pensando en las consecuencias de todo esto, haciendo que los jóvenes prefieran evitar el contacto con mujeres reales y como no, no quieran casarse y tener descendencia.

Para más inri, una encuesta muestra que el 60% de los hombres de todo el mundo de entre 18 y 30 años siguen solteros, por lo que las novias IA empeorarían aún más la situación. Aún no sabemos qué impacto podría tener un uso habitual de estos servicios. Por un lado, podría ayudar a aquellos más tímidos a la hora de hablar y establecer relaciones sociales, pero por otro lado, no podemos evitar pensar que habrá personas que preferirán quedarse en esa fantasía y no experimentar las relaciones de verdad.

 


La Sospechosa Regulación de la Inteligencia Artificial

La Unión Europea así como Estados Unidos, tiene previsto efectuar una regulación por la cual, todas las Inteligencias Artificiales que estén fuera de su marco, estarán prohibidas.Pero ¿Que hay de fondo en dicha futura normativa?
 

El jefe de la SEC augura una nueva crisis financiera «casi inevitable» por el uso de la IA​

La SEC (Securities and Exchange Commission) es la agencia gubernamental de los Estados Unidos que desempeña un papel fundamental en la regulación y supervisión de los mercados financieros del país. Pues bien, su Jefe y director, Gary Gensler, tiene algo que decir al mundo y lo pone en sobreaviso desde la Comisión de Bolsa y Valores de EE.UU.: la IA podría crear una nueva crisis financiera. Por lo tanto, la pregunta más obvia también es la más pertinente: ¿cómo va a poder hacer esto?

Pues con una caída del mercado, que puede ser intermitente, perpetuarse algún tiempo, o en cambio, ir mermando el mercado poco a poco. Realmente no está claro el modus operandi, pero Gensler advierte de que, de seguir por el camino en el que vamos, al final terminaremos en este escenario por el uso de los modelos de IA desarrollados sin control por empresas privadas.

Crisis financiera impulsada por una o varias IA, ¿cómo de real es la amenaza?​

Pues a tenor de lo que dijo Gensler, a día de hoy es bastante real, y muy peligrosa de hecho. Las instituciones financieras, como los Bancos Centrales, las cajas de ahorro e incluso las Bolsas, ya usan distintas IA, pero todas tienen demasiadas cosas en común, y en opinión de Gensler, ese es uno de los problemas realmente.

La falta de diversidad implica modelos LLM demasiado enfocados en los mercados, y terminarán entrando en conflicto, tirando la bolsa y desatando un caos que nadie verá venir. Por lo tanto, la única solución que ofrece el jefe de la SEC es simple: se necesita regulación y una institución que supervise todo modelo generativo de IA en Wall Street.

La idea va muy de la mano de lo que pretende hacer EE.UU., pero eso también implica que las empresas tienen que mostrar sus modelos LLM al completo a la autoridad, tienen que probar cómo funciona y mostrar los resultados y las variables, lo cual, según Gensler, es un desafío de regulación sin precedentes.

Hay precedentes de colapso momentáneo y pánico, pero la IA lo agudizaría y en menor tiempo​

Gensler lo tiene realmente claro y así lo expresa:

"Es francamente un desafío difícil. Es una cuestión de estabilidad financiera difícil de abordar porque la mayor parte de nuestra regulación se refiere a instituciones individuales, bancos individuales, fondos del mercado monetario individuales, corredores individuales; está simplemente en la naturaleza de lo que hacemos.

Y se trata de un asunto por el cual todo es horizontal y muchas instituciones podrían estar confiando en el mismo modelo base subyacente o agregador de datos subyacente".

Por ello, la autorregulación que afirman tener las empresas creadoras de IA no va a bastar. El problema es que el impacto de cualquier IA es demasiado grande para valorar todos sus aspectos de forma veloz, se necesita tiempo, y como ya hemos visto esta semana, ni la UE puede ofrecer garantías sin más tiempo, e incluso, la Ley de IA podría cancelarse precisamente por no cumplir los plazos.

Pero en cuanto a la economía, el problema que ve la SEC es de base, porque un banco privado, una empresa privada, con una IA realmente potente y eficaz puede anteponer sus propios intereses a los de sus inversores, creando una paradoja económica en la bolsa que puede tornar en desastre, puesto que todo inversor vería perder su dinero en mayor o menor cantidad.

Este "conflicto de intereses" entre empresa e inversor es fácil de discernir para una IA, que solo tiene que cumplir un cometido y donde la ética no existe, la moralidad es inexistente. Por lo tanto, una IA, o una serie de ellas, pueden hundir el mercado financiero en minutos creando un colapso mundial, una crisis financiera por la IA. ¿Deben prohibirse la Inteligencia Artificial para estos sectores tan críticos?

 

Elon Musk competirá con ChatGPT con su empresa xAI y su chatbot con IA «Grok»​

Elon Musk es todo un personaje en redes sociales, muchas veces creando situaciones cómicas y otras tantas poniéndonos de los nervios por culpa de sus decisiones. Ya hemos visto como ha cambiado Twitter (X), desde que está a su mando y ahora se avecinan más cosas a comentar. Elon Musk quiere competir contra OpenAI y ChatGPT, con su nueva empresa xAI y desarrollando un nuevo chatbot con IA llamado Grok.

Elon Musk es considerada la persona más rica del mundo actualmente y aunque tuvo una caída a un segundo puesto, fácilmente volvió a alcanzar el primero. Muchos consideran a Musk como una persona que no sabe lo que hace, que toma decisiones muy absurdas y nunca piensa en los usuarios. En X hemos visto muchos cambios de este tipo, añadiendo la suscripción Blue para la marca de verificación o la supuesta suscripción anual obligatoria.

La empresa xAI de Elon Musk ha creado un nuevo modelo de IA​

Musk también ha estado dedicándose a trabajar en muchos otros ámbitos como son los vehículos autónomos con Tesla, el transporte espacial con SpaceX o los chips cerebrales con Neuralink. Si ya eso te parecía poco, ahora con su nueva empresa xAI pretende competir contra OpenAI. Sobre xAI ya estuvimos hablando hace unos meses, ya que Musk estaba dispuesto a meterse de lleno en el sector de la inteligencia artificial. Ya vimos como empezó a comprar hasta 10.000 GPU de NVIDIA para entrenar a TruthGPT, lo que para el era la IA que buscaba la verdad universal.

Sobre xAI no supimos nada durante este tiempo, pero ahora oficialmente ya es una empresa consolidada. xAI lanzó su primer modelo IA que será empleado en un futuro como un chatbot llamado Grok. Al menos eso es lo que se ha dado a conocer, ya que realmente no se tienen muchos detalles de sus cualidades y características. También estamos esperando la denominada TruthGPT que Elon Musk está supuestamente desarrollando gracias a las GPU NVIDIA. Quizá, el chatbot IA Grok hace uso de esta TruthGPT y todo realmente está unido, aunque habría que esperar a un acontecimiento oficial de xAI o el propio Musk.

Elon Musk implementará el chatbot IA Grok para los usuarios Premium+ de X​



Con xAI anunciando un nuevo modelo de IA, solo era cuestión de tiempo que Elon Musk anunciase algo al respecto. Por el momento sabemos que todo esto pertenece a una fase beta, por lo que los únicos que podrán estrenar la inteligencia artificial serán un pequeño grupo selecto de usuarios. Lo que si sabemos, es que Elon Musk ha afirmado que una vez se acabe esta fase beta, el chatbot IA Grok creado por xAI estará disponible para todos los usuarios Premium+ de X.

Esto significa que para tener acceso a esto, toca pasar por caja y pagar una suscripción que cuesta 16 dólares al mes. Teniendo en cuenta que ni siquiera sabemos que beneficios nos va a aportar el uso de este chatbot, no parece una buena oferta para optar al Premium+. Habrá que esperar por ver si se filtra algo de Grok por parte de los usuarios beta o de lo contrario, esperaremos a que se lance para todos.