papá cibernética
papá cibernética some flickr

comepol 2.0 (WIP)

La historia del periodismo y de los medios se vincula estrechamente con los partidos políticos o el partidismo per se.

La evolución de los medios transformó la industria de tal modo que solo organizaciones de medios orientadas al negocio publicitario terminaron acaparando el landscape de medios. Una victoria nada despreciable del mercado. A partir de entonces toda comunicación, para tomar carácter público, debía pasar por un medio masivo y comercial o tener las dimensiones del terremoto de Lisboa.

Las razones son sencillas e incluso algunos elementos no han variado. Las empresas que producen a mayor escala, ceteris paribus, tienen ventajas al absorber mejor los costos fijos. Este sólo es un punto determinante, variar el precio o las condiciones de pago del papel -por ejemplo- puede significar el éxito o fracaso de la empresa.

Ahora ¿que pasa con internet? cualquier empresa comunicativa, ya no digo periodística porque el periodismo ha sido una forma peculiar de la estrategia comunicativa que durante un buen período de tiempo se vio asociada a una "empresa periodística" y su esquema de producción: creación, selección y distribución de información. Digo que una empresa comunicativa (empresa como emprendimiento) deja de ser privativa de aceitados esquemas comerciales por cuanto los niveles de inversión requeridos para alcanzar un readership de 10 y uno de 1.000.000 son muy similares. Por otra parte pretender que usuarios/lectores e instituciones/difusores (ya las categorías son bastante esquemáticas) deberían seguir orientándose con las mismas prácticas es desconocer la transformación operada [por cierto: la práctica es orientadora por excelencia].

Considero que no estoy diciendo nada nuevo y sin embargo ¿porqué persisten tanto las prácticas más vinculadas con las estructuras comunicativas de la empresa periodística? Reconozco que los medios tradicionales conservan una masividad que en términos generales no ha desaparecido y que el Diario Clarín sigue firme como parte del combo de medios de cualquier criollo, no obstante ¿puede compararse a una empresa de medios como facebook o google?

Facebook es una evolución de la empresa de medios que entrega la producción de contenidos a su propia base de usuarios y se concentra en el desarrollo de formas interesantes de poner en contacto y monetizar la permanencia dentro de sus límites virtuales. El wall de fb es fb, los tags en las fotos, las recomendaciones de "amigos" de "amigos" y demás servicios es el desarrollo que pone la pimienta del wall. Google también ha decidido abandonar la producción de contenidos y concentrarse en la monetización de las búsquedas del contenido producido por terceros.

En el ranking de sitios desarrollado por alexa.com, la primera empresa periodística tradicional que figura es la BBC y aparece en la posición 48º lo cual no deja de ser una proeza si consideramos que la mayor parte de los primeros lugares lo ocupan emprendimientos que navegan el mar de contenidos p2p (peer to peer, o de muchos a muchos) y BBC Online es de pocos a muchos. A la cabeza del ranking se encuentran Google y facebook. Ambas megaempresas de medios. Google no solo ha monopolizado la búsqueda y el negocio publicitario relacionado a la búsqueda de información relevante sino que ha incursionado en un buen número de servicios informáticos del resto de las primeras posiciones: 9 de los primeros 25 sitios con más tráfico son de google.

En términos generales podemos distinguir dos grandes tendencias: buscadores por un lado, redes sociales por el otros (e incorporamos a facebook). Los distingo de este modo porque me permite marcar de forma clara el modo en que la información llega al usuario. De un lado se realiza una pregunta al sistema y el sistema retorna un output considerado relevante, del otro el orden de relevancia no está dado por la pregunta sino por el entramado de contactos, una red social supone que la pregunta por la relevancia ya ha sido enunciada al momento de designar como contacto a un sujeto determinado y luego presenta los resultados de publicaciones que la red de contactos ha considerado relevantes. Es interesante este punto por cuanto buena parte del contenido de las redes sociales entra dentro de la categoría "social grooming" y por lo tanto esto conforma un registro discursivo particular.

Este fenómeno desnuda algunas cuestiones. La primera es que los sujetos de la información han tomado decididamente las riendas del contenido al que quiere exponerse. Primero realizando la pregunta y esperando un resultado relevante y en el segundo caso definiendo una red de contactos que utilizan para seleccionar la información y con la cual quieren compartir (y esto es clave en las redes). Desde el otro lado del mostrador sirve para graficar el espacio accesorio que los medios tradicionales ocupan desde la perspectiva de su propio negocio: el publicitario. La forma de la prensa tradicional puede funcionar bien como disparador inicial pero no cumple ninguno de los requisitos a los que responde la tendencia comunicativa.

Dentro de este landscape de medios ¿tiene sentido persistir con modalidades que no se ajustan a la nueva dinámica?

Consultora para la comunicación política en nuevos medios

Teniendo en cuenta las transformaciones ocurridas en el sector de las comunicaciones y siendo los políticos agentes especialmente dependientes en la utilización de los medios de comunicación[1], crear una consultora para la comunicación política en nuevos medios no es una idea revolucionaria pero sigue siendo una necesidad.

Una consultora para la comunicación política en nuevos medios debe ofrecer herramientas concretas. No se trata de hacer sondeos y monitoreo únicamente; se trata de diseñar acciones concretas de escala adecuada. A diferencia de los estudios de mercado político tradicional y de las acciones puntuales en el mercado tradicional, relevamiento, medición y acción en el mercado político de los nuevos medios es una operación mucho menos onerosa. La replicabilidad de las acciones digitales tiende a conservar la virtud de toda replicabilidad binaria: original y copia son idénticos y el costo de la duplicación es prácticamente despreciable.

Teniendo en cuenta la obviedad de la necesidad de consultoras para la comunicación política en nuevos medios, ¿es un mercado saturado?

 Si tenemos en cuenta que las transformaciones tecnológicas siempre corren por delante y van tirando de las transformaciones en las prácticas sociales es fácil comprobar que el grado de refinamiento en la adquisición e implementación de competencias adecuadas a los nuevos medios es bajo.

Es importante distinguir entre lo que significa tener existencia dentro del espacio de los nuevos medios y en gestionarlos con las competencias adecuadas. Del mismo modo en que la alfabetización no convierte al alfabeto en novelista, reconocer la existencia de los nuevos espacios y ser capaz de participar en ellos no los convierte en gestores eficientes y/o significativos.

Suponemos que la razón es clara. En primer lugar existe una apreciación muy extendida que atribuye a los nuevos medios un carácter incomprensible para generaciones no nativas y que por lo tanto esa incomprensión de facto produce un desinterés real por parte de los tomadores de decisiones alentada por el mito generacional, alimentando el círculo vicioso de incomprensión y desinterés. En segundo lugar y como corolario, el desinterés impide ver la potencialidad real, a escala y ajena de las expresiones más espectaculares que toman notoriedad pública mainstream a través de los medios tradicionales y que son el único elemento suficientemente conocido y valorado por los sujetos tradicionales.

Esto puede ser verificado al estudiar el modo en que estos agentes se comportan dentro del espacio de los nuevos medios, donde copian con un grado muy bajo de reapropiación las prácticas "exitosas" de otros agentes. No hay duda que muchas de estas prácticas siguen siendo eficaces, pero es poco probable que sean eficientes. Matar un mosquito con una escopeta puede ser eficaz pero pocos podrían acordar eficiencia en dicha acción. Lo cierto es que la potencia real de las herramientas con las que accedemos a los nuevos medios tienen este carácter excesivo. Toda computadora es una Ferrari y por lo general se usa como un Rastrojero por la misma razón que si lo único que tuviéramos en las manos es un martillo todo se parecería a un clavo.

Para el corriente de las personas las computadoras siguen siendo máquinas de escribir con anabólicos, buzones de correo o una máquina de calcular (para los usuarios más avezados). No obstante, el enorme potencial de esta tecnología puede permitirse enormes grados de ineficiencia y continuar siendo eficaces y sustentables. 

Redes Sociales

Este ámbito es fértil para considerar las practicas comunicativas particulares. Por otra parte uno de los modos de socialización más primarios es la imitación. Consideramos que la imitación de uso en la tecnología ha tomado dos orientaciones significativas: En primer lugar el ejemplo del líder que por su propia condición tiene características estructurales diferentes. En este sentido podemos estar refiriéndonos al líder partidario o de espacio político tanto como al líder con espectro global. Para este último podemos citar a Obama quien fuera el primer político que puso a los nuevos medios como uno de los ejes de campaña. En segundo lugar se toma la popularidad como valor; cantidad de seguidores en twitter, cantidad de "me gusta" en facebook, cantidad de visitas en el sitio. No es una novedad de los nuevos medios que la popularidad de un sujeto lo hace especialmente interesante desde una perspectiva electoral, podemos volver a EE.UU. y mencionar a Reagan, podemos ir a nivel local y mencionar a del Sel.

Ahora bien, nuevamente las características estructurales de estos agentes los convierten en sujetos de popularidad por razones totalmente distintas a las posibilidades reales de un agente considerado por y desde la política, por lo tanto procurar la imitación de prácticas comunicativas que funcionan bien en figuras asociadas al espectáculo difícilmente puedan ofrecer un diferencial de eficiencia para las figuras no asociadas a ese campo. Con esto no estamos diciendo que el espectáculo no tenga que ofrecer a las aspiraciones electorales, estamos diciendo que debería mediar una apropiación meditada de las acciones.

Por otro lado, muchas de las acciones propias del espectáculo requeridas para generar algún grado de eficacia requieren de la convergencia de otras acciones que en muchos casos sencillamente no están al alcance del sujeto político y que los sujetos espectaculares son susceptibles de reconversión política justamente por ya contar con esa convergencia mencionada. Digamos que no necesariamente se trata de una función biyectiva.

Esto es visible en la actitud general respecto al contacto con seguidores. Por lo general los políticos no trabajan activamente para promocionar sus espacios comunicativos, trabajando con un esquema más propio de los referentes del espectáculo o de los líderes políticos mediáticos que ya cuentan con un espacio importante de convergencia.

Cuando estamos hablando de figuras mediáticas tradicionales, de objetos de deseo (sea cual fuera el deseo que moviliza), las figuras no requieren demasiada interacción directa para alimentar el deseo de contacto por cuanto se encuentran en esa posición de objeto de deseo. Los políticos en tanto que políticos no son objetos de deseo per se, por lo tanto deberían aprovechar el espacio de los nuevos medios no solo para ser alcanzados sino para alcanzar. Dentro de esta estrategia de alcanzar deberían ser capaces de identificar oportunidades y amenazas. Aquí los números son importantes aunque no sean la única variable significativa. Si tenemos 585 seguidores en facebook, la arquitectura propia de la red debería hacernos atentos a lo siguiente: ¿quienes son? 

Maximizar el reach

585 es un número que representa muy poco. La política lo sabe, el endorsment de unos no vale como el endorsment de otros. Si tenemos 100 seguidores con un promedio 1000 contactos cada uno tenemos un reach potencial de 100000 (segundo grado), si el promedio de seguidores de nuestros 584 es de 100 tenemos un reach de 58400 (segundo grado). Aún más, si de esos seguidores tuviéramos algunos con contactos muy por encima del promedio podríamos concentrar nuestras acciones en ellos para maximizar el reach con una reducción sustantiva de esfuerzo artesanal[2].

Esto no ocurre, los actores actuales publican como si se tratase de un canal masivo y esperan que los usuarios vayan a ellos con la misma paciencia que los anunciantes televisivos esperan por los consumidores en sus góndolas.

El punto es indagar que tanto vale procurar engagement con usuarios. Salir activamente a capturar contactos para extender el reach y de ser posible (como lo es) teniendo una información más detallada que el simple número desnudo. Si determinadas acciones comunicativas tradicionales apuntan a instalar a un sujeto (particular o colectivo) como referente o adscripto a una posición determinada y podemos entender que cada una de estas acciones implica la convergencia de múltiples espacios sobre los que las más de las veces la incidencia o control es baja, ¿no resulta interesante tratar de explorar acciones que no requieren de convergencia alguna más allá del eslabón final de nuestra intención, no significa ahorrar espacios de incertidumbre? Más aún, generar reacción en espacios virtuales es mucho más sencillo que hacerlo en espacios tradicionales por cuanto todos los agentes comprometidos tienen una capacidad similar de respuesta y por general esta es extremadamente sencilla y habitual.

Reconocemos que el impacto estético[3] suele ser mayor en los medios tradicionales, pero no habría que desalentarse por las ventajas que pudieran tener porque el espacio virtual genera una flexibilidad que ya ha demostrado puede incorporar la totalidad del appeal tradicional con un plus imposible de igualar. 

El problema de la producción.

10 canales de televisión pueden llenar una grilla de programación diaria de 24 horas cada uno. Lo que significa que hay que producir 240 horas de material diario (lógicamente hay contenido que se repite como el publicitario). Por lo general el mercado se ha ajustado en un punto de equilibrio que puede cubrir esa cantidad x de producción diaria.

A diferencia de los medios tradicionales, los nuevos medios tienen una limitación mínima en cuanto a su grilla de programación y su capacidad de distribución, cierto es, no obstante, que pocas empresas de nuevos medios pueden absorber una concurrencia masiva de usuarios en sus servidores. Esta grilla potencialmente ilimitada enfrenta a los nuevos agentes con el problema de la producción sistemática de información novedosa, atractiva y frecuente. El costo de producción de la información tiende a ser el mayor escollo de los nuevos medios; aumentar la grilla y/o incrementar el reach de una información han dejado de ser un problema que requiere la convergencia de múltiples condiciones para objetivarse y suele alcanzarse con unos pocos clics.

Que la producción de información es el mayor escollo de los nuevos medios no significa que presente demasiadas dificultades, de hecho un sitio como youtube.com nacido en el 2005 y popularizado en el 2006 hace ya tiempo que acumula mucho más material audiovisual que el transmitido desde los orígenes de la televisión. El material es el mayor problema pero aún así es un problema mucho menor que el de la producción de material para medios tradicionales.

No obstante el problema es real, podemos tener un sitio con facilidad pero luego no se tiene el tiempo ni los recursos para llenarlo con material. Incluso el procedimiento del copy paste puede ser algo complicado. En este sentido un lugar como facebook a desarrollado una forma inteligente de incrustar contenidos de otros sitios con tan solo colocar el link y generar automáticamente una vista en miniatura y tomar la información de las primeras líneas del contenido de marras.

La modalidad del copy paste es como la modalidad de la reposición televisiva. En términos generales es más aceptable por cuanto la cantidad general de material único es tan grande que las personas que realizan copy paste están agregando valor al funcionar como editores/selectores de información. Ahora bien, es justamente esta inundación informativa la que vuelve difícil capturar la información relevante y el solo recorrer los sitios que funcionan como fuentes frecuentes del copy paste puede resultar una tarea agotadora.

El copy paste, el tweet y retweet han sido una de las estrategias más básicas para aparecer con "frescura" dentro del landscape de nuevos medios. No obstante suele hacerse de modo artesanal obviando uno de los modos más prácticos que proveen los nuevos medios y que tiene que ver con la estandarización de las fuentes, el formato y los sistemas de interconexión, que permitirían sin mayores esfuerzos poder difundir lo producido en un sitio en una multiplicidad de fuentes de modo automático y casi simultáneo. Para ello lo único que se requiere es contemplar una arquitectura de la información que estandarice el proceso. 

El problema del contenido relevante

Una búsqueda en google puede parangonarse a un control remoto inteligente: le decimos que queremos mirar y nos da un abanico de pantallas donde podemos encontrarlo. Ahora bien, en la época del control remoto secuencial, uno debía recorrer la pantalla punto por punto hasta encontrar aquello que desee. Teniendo en cuenta la limitada oferta de fuentes y la tendencia a ubicar determinados tipos de contenidos en determinados sitios invariables, la costumbre y la economía de selección en un medio tan ineficiente es no recorrer demasiado la grilla, esto se suma a que todo el contenido en la televisión es un stream lo que significa que si perdemos tiempo en buscar algo que se acerque más a nuestros intereses nos estamos perdiendo parte del sub-óptimo que a habíamos marcado como "potencialmente relevante". La elección tiene que hacerse lo más inmediata posible so pena de ir reduciendo dramáticamente su relevancia[4].

Ahora bien, la competencia en el ordenamiento de relevancias del control remoto inteligente (google) plantea la dificultad del SERP (Search Engine Results Page), es decir cómo lograr que nuestro contenido sea ubicado lo más alto posible de entre todos los contenidos identificados como resultado de relevancia por el motor de búsqueda. La primera página de google es como el diseño de los bloques de un programa pero que, en este caso, procura lidiar con el espacio de tiempo que tiene un usuario para investigar los contenidos relevantes. Los primeros bloques serán investigados y hacia abajo irán siendo ignorados en un gradiente creciente. Por lo tanto aquí el stream de importancia es el stream vital[5] del sujeto que busca información y el tiempo que puede dedicarle a la búsqueda. Ocurre que la profusión de información presentada por los motores de búsqueda supera el tiempo designado para la adquisición de la información, tiempo que suele ser tanto más exiguo cuanto más trivial resulta la búsqueda.

El problema de la relevancia de la información no tiene que ver estrictamente con lo que un lector biológico entiende como relevante. Nos referimos puntualmente a la relevancia cibernética, la relevancia a ojos de google por ejemplo. Si bien google trabaja para que los criterios de relevancia cibernética coincidan con los criterios de relevancia biológica, los dispositivos de inteligencia artificial aún son rudimentarios y suelen tomar como patrón un criterio objetivo, vale decir único, que no hace distingos en función de las particularidades del usuario que realiza la búsqueda[6]. Teniendo en cuenta esta dualidad básica del lector potencial (biológico/cibernético), los criterios para la construcción de la información debe contemplar esta consideración y ajustar el discurso para dar cuenta de esta doble relevancia.

Por otra parte hay que reconocer que la fabricación del lector medio aún cuando podamos segmentar lectores medios para diferentes nichos informativos, avanza por los dos costados: los proveedores informáticos ajustan sus algoritmos para acercar el criterio de relevancia de sus dispositivos al usuario biológico pero por el otro lado los usuarios biológicos ajustan sus prácticas para obtener resultados más eficientes. Todo el emergente lingüístico hijo de los 140 caracteres de twitter y nieto de las restricciones del mensaje sms es una muestra clara de los usuarios biológicos constituyéndose como lectores/productores con criterios informacionales cibernéticos.

Es interesante hacer dos referencias respecto a la producción de contenido relevante y su eficacia en términos de impresión (cuantas veces llega a pantalla del usuario). Por un lado la monetización de los contenidos en facebook permite una interesante segmentación del público que permitiría presentar anuncios puntuales a usuarios que cumplen con una serie de condiciones que arrancan con sexo, edad, etc. llegando a consideraciones más biográficas como la fecha en que finalizaron su formación académica o si les gusta Justin Bieber. Este tipo de criterios de relevancia constituye un profiling que el emisor puede construir y controlar a voluntad independientemente de haberse constituido como parte del entramado significativo del sujeto receptor. Por otro lado, la plataforma de anuncios de google también constituye un profiling automático que trabaja con el histórico de sitios visitados por un usuario y que provee anuncios considerados relevantes en función de información contextual inmediata enriquecida por el histórico de sitios visitados y otras consideraciones de segmentación más o menos amplias conforme se trate de su motor de búsquedas, su red de display (espacios publicitarios remanentes) o socios de búsqueda. 

La infraestructura

Dos elementos han sido determinantes la hora de soslayar la implementación de la infraestructura tecnológica adecuada para la presencia dentro del landscape de nuevos medios. En primer lugar la generalizada ausencia de recursos humanos para implementar la infraestructura. La mano de obra especializada es bastante escaza y por lo tanto suele ser capturada por agentes capaces de pagar un fee alto. En segundo lugar, la potencia y replicabilidad propia de las herramientas informáticas hace que el deploy (despliegue, implementación) de soluciones pueda automatizarse con una penalidad de performance general aceptable para un segmento importante de los interesados. De este modo podemos obtener implementaciones funcionales no críticas a bajo coste. La implementación de estas soluciones penaliza el desempeño general de las soluciones y un estudio detallado muestra que pagar con disponibilidad del servicio o performance suele generar costos no visibles a primera vista. Amazon.com declaró que pierde un 1% de ventas por cada 100ms extra en la velocidad de carga media de su sitio. Yahoo por su parte confirmó que por cada disminución de 400ms en el tiempo de carga de su sitio incrementa un 9% la cantidad de páginas visitadas.

Los números son significativos y razón suficiente para optimizar la infraestructura (software y hardware). En este sentido podemos citar un caso en el cual una de las mejores compañías dedicadas a la colocación de hosting web compartido para un sitio determinado de desempeño regular tiene una media de carga 4.48s que puede ser llevada a 3.38s mediante la implementación de infraestructura optimizada, lo que en términos de amazon.com significaría que la actual implementación reduce un 11% las ventas posibles y según Yahoo pierde casi un 25% de páginas vistas.

Además de la performance de aplicaciones y sitios web habría que considerar la disponibilidad. En términos generales, este tema suele ser más parejo para la totalidad de proveedores que oscilan entre el 97% y el 100% de disponibilidad. A pesar de que los números pueden transmitir seguridad relativa, habría que considerar que un outage del 3% representan 22hs mensuales sin servicio (muy probablemente no consecutivas). Otra consideración para tener en cuenta es el disaster recovery plan y los tiempos de ejecución[7].

 



[1] La Guerra Mundial, en sus dos momentos, sanciona una nueva etapa de la humanidad que, entre otras cosas, se caracteriza por una sociedad de masas. La emergencia de una sociedad de masas es incomprensible sin los dispositivos tecnológicos necesarios para coordinar y orientar la acción. Por muchas razones la prensa gráfica nunca podría producir fenómenos de liderazgo como los del fascismo. La radio y las producciones escénicas arrastraron al mundo moderno a un enfrentamiento global que hace palidecer toda la meticulosa construcción ideológica (o de Fe) que cultivó el cristianismo y sus cruzados. Traigo a colación el ejemplo social más traumático para mostrar el alcance y potencia de los medios de comunicación.

 

[2] Entiendo el esfuerzo artesanal como opuesto al esfuerzo informático. La diferencia entre esfuerzo artesanal y esfuerzo cibernético es similar a la que existe entre la tracción a sangre y la tracción mecánica.

 

[3]< El impacto estético es el plus significativo que aún hoy define a los medios tradicionales. Sus características tienden a garantizar un piso mínimo de calidad compositiva y de recursos afectados que no comparte con los nuevos medios en términos generales aún cuando esto no sea un rasgo privativo de los medios tradicionales. Por otra parte los usuarios de nuevos medios son más permeables a la diversidad cualitativa de las producciones y sus expectativas tienden a ser mucho más tolerantes.

 

[4] La relevancia de una película pierde conforme la narrativa avanza, un poco menos ocurre con los eventos deportivos, quizá por ello sean tan televisivos. Los bloques en los programas sirven como paliativo del problema del stream.

 

[5] Esta es una interesante distinción entre el streaming de contenido y el on demand donde se acentúa aún más el rasgo señalado por Walter Benjamin en la su ensayo "Sobre la Obra de Arte en la época de su reproductividad técnica".

 

[6] La relevancia en este tipo de circunstancias está tomada como un elemento que pone el eje en el sujeto. No se trata aquí de la relevancia de los resultados exhibidos según criterios objetivos, ni siquiera intersubjetivos; se trata de relevancia para el sujeto que ordena la búsqueda y/o lectura. En este sentido es relevante todo resultado que pueda ser presentado como satisfactor de un deseo en un tiempo menor o igual al tiempo máximo designado/esperado para la obtención del beneficio. Cuando el tiempo (única medida antropomórfica del esfuerzo informático) supera el máximo designado la ordenación de resultados no es relevante.

 

[7] Tener un backup de contingencia actualizado, contar con una implementación muleto de provisión automática o de mitigación de outage mínima, restablecimiento del servicio en calidad de producción.

 

(3 votos)
Visto 14278 veces

Más en esta categoría:

« Casus belli

Deja un comentario

Asegúrate de llenar la información requerida marcada con (*). No está permitido el código HTML. Tu dirección de correo NO será publicada.