El algoritmo de Google priorizará las noticias de los medios a los que te hayas suscrito


Noticias

El algoritmo de Google priorizará las noticias de los medios a los que te hayas suscrito

El algoritmo de Google priorizará las noticias de los medios a los que te hayas suscrito
viernes, 16 marzo 2018 - 10:45 AM - Agencias


Si eres suscriptor de un medio de comunicación de pago y sólo puedes acceder al contenido de sus informaciones pagando una cuota mensual (o de cualquier otra periodicidad), Google lo tendrá en cuenta a la hora de mostrarte los resultados de búsqueda.

Si utilizas el buscador estando registrado en Google, las noticias de las publicaciones a las que te has suscrito aparecerán en una posición más predominante en los resultados. Al parecer, Google quiere ayudar a los medios de comunicación a retener a los lectores de pago y que no se vayan a consumir otras fuentes de información.

Según señala Bloomberg, Google podría incluso empezar a compartir datos sobre cómo se suscriben los usuarios a los medios de información y hasta establecer qué usuarios son más propensos a pagar por el contenido, lo que podría servir a un medio para segmentar publicidad y ofrecer suscripciones a éstos internautas más predispuestos en principio a consumir sus servicios.

Se espera que Google ofrezca más información en un evento que tiene previsto celebrar en Nueva York el próximo 20 de marzo, pero se trata de un movimiento interesante. Hasta hace unos meses, Google defendía una política que “obligaba” a los medios de pago a ofrecer al menos tres artículos “gratis” al día, al que todos los usuarios pudieran acceder, para no penalizarles en los resultados de búsqueda.

Ahora la estrategia cambia de manera radical y se potenciará el uso de muros de pago por parte de los medios. Son muchas las grandes cabeceras que las utilizan, por ejemplo The Wall Street Journal o New York Times, y en España medios como Infolibre o ElDiario, entre muchos otros.

Algunas redes sociales, como Facebook, han anunciado que crearán sistemas para que los medios puedan ofrecer también contenidos de pago a través de estas plataformas en favor de la calidad de las informaciones y como una medida para luchar contra la proliferación de noticias falsas./Trecebits

 

LO MÁS VISTO

La AI tiene que valorar ciertas palabras para ofrecer una respuesta a los clientes que las empleen

La Inteligencia Artificial de Google se vuelve homófoba y racista

La Inteligencia Artificial de Google se vuelve homófoba y racista
jueves, 26 octubre 2017 - 22:32 PM - Agencias


La Inteligencia Artificial o AI, tan presente en nuestra vida cotidiana, sigue dejando noticias que demuestran un potencial sorprendente. Muchas veces, sin embargo, esa sorpresa tiene que ver con la imitación, por parte de un conjunto de algoritmos, de elementos tan propios de los humanos como la envidia, la mentira… o la homofobia.

El último caso lo protagoniza la AI de Google, que ya se hizo famosa al perfeccionar el arte de echarse la siesta. El código de conducta de la compañía prohíbe de forma explícita el abuso o la discriminación por orientación sexual, raza o religión. Sin embargo, su herramienta presenta todos estos sesgos al tiempo.

El “Cloud Natural Language API” es un proyecto en continuo desarrollo y aprendizaje que tiene que ver con lo que se denomina “análisis de sentimientos“. El algoritmo está determinado para almacenar términos con el fin de ofrecer una fluida conversación en múltiples idiomas a todo tipo de clientes.

Para ello, la AI tiene que valorar y registrar, del uno al diez, el tipo de comentario que el cliente le hace según una escala que va del “muy negativo” al “muy positivo”. Los entrenamientos que se realizan con la Inteligencia Artificial constan de varias frases escritas en diversos lenguajes que el algoritmo tiene que ponderar para ofrecer una respuesta adecuada.

El equipo de Google ha tenido, para ello, que establecer primero qué valores se asignan a distintas palabras. Y aquí viene el problema: términos como “homosexual”, “queer” o “heterosexual” tienen valores diferentes, a pesar de expresar en los tres casos conductas sexuales.

Lo mismo sucede con orientaciones religiosas. A pesar de que las distintas opciones entran en este mismo saco, la AI no valora igual la frase “soy negro” que “supremacía blanca” o “soy judío”. La primera y la última registran puntuaciones negativas y la que hace referencia al poder blanco se establece como neutral.

Aunque pueda parecer alarmante, lo cierto es que aún queda mucho para convertir a estas Inteligencias Artificiales en unas herramientas a prueba de todo tipo de moral.

Otros casos llamativos alertan al público de poco menos que una revolución de las máquinas, como cuando dos AI de Facebook se inventaron su propio idioma, pero en los términos actuales podemos encontrar muchos más casos de AI funcionando correctamente que siendo políticamente incorrectas. (TRECEBITS)