domingo, noviembre 30, 2008

Políticas y Regulación de las Comunicaciones en un entorno de Convergencia: Estado del Debate

Traducción no-oficial del texto de Aniruddha Bannergie

Resumen

Con el crecimiento de la competencia y la convergencia cada vez mayor, el espectro entero de las comunicaciones, la computación, y las industrias multimedia ha experimentado un cambio tecnológico e institucional de gran envergadura. En el proceso, las posibilidades de consumo de los usuarios finales se han enriquecido en términos tanto de la variedad de servicios que están disponibles actualmente como por la competencia entre los proveedores de servicios. Debido al cambio en estas direcciones, la comunidad de formuladores de políticas está revolviendo dentro de un conjunto desconcertante de temas. ¿Sigue siendo la regulación necesaria, redundante, o dañina? ¿A dónde debe ir la regulación? ¿Qué forma debe tomar: intervencionista o pasiva? ¿Contra quién necesita ser protegido cada quién? ¿Cómo puede la política de las comunicaciones ser utilizada para mejorar el bienestar social? Estas preguntas se presentan en parte porque la convergencia es un fenómeno complejo y polifacético y en parte porque los paradigmas regulatorios de la pre-convergencia y los instrumentos de la política existente están mal equipados para ocuparse ella. En este documento, se explora cómo la política de las comunicaciones debe desarrollarse para adaptarse a las circunstancias cambiantes de la industria. Proponemos que cualquier política u opción regulatoria en la era de convergencia esté basada en la eficiencia dinámica en lugar de la eficiencia asignativa. También exploraremos dos ramificaciones particularmente polémicas de de la convergencia: la neutralidad de red y la franquicia del vídeo.

1. Introducción

La liberalización (la introducción de la competencia) y la convergencia son, sin duda, dos de los acontecimientos más importantes en las telecomunicaciones durante la última década. Dentro de un período de tiempo relativamente corto, las telecomunicaciones - de hecho, todo el campo de las comunicaciones, la informática, y las industrias multimedia - han experimentado un gran alcance tecnológico y cambio institucional. En el proceso, las posibilidades de consumo de los usuarios finales se han enriquecido en dos direcciones: (1) el número y tipo de servicios disponibles y (2) la variedad y cantidad de proveedores de servicio que compiten por los clientes.

El ritmo del cambio en este sentido ha sido tan rápido e impredecible que ha dejado confundida a la comunidad de hacedores de políticas. ¿Sigue siendo la regulación necesaria, redundante, o dañina? ¿A dónde debe ir la regulación? ¿Qué forma debe tomar: intervencionista o pasiva, ex ante o ex post? ¿Contra quién necesita ser protegido cada quién? ¿Cómo puede la política de las comunicaciones ser utilizada para mejorar el bienestar social? Las preguntas han surgido más rápido que las respuestas. Esto se debe en parte porque la convergencia es uncomplejo y polifacético fenómeno y en parte porque los paradigmas regulatorios previos a la convergencia y los instrumentos regulatorios existentes están mal equipados para ocuparse de ella.

En este documento, se explora cómo la política de las comunicaciones debe evolucionar para adaptarse a la era de la convergencia. Proponemos que cualquier política u opción regulatoria en la era de convergencia esté basada en la eficiencia dinámica en lugar de la eficiencia asignativa. También exploraremos dos ramificaciones particularmente polémicas de de la convergencia: la neutralidad de red y la franquicia del vídeo.

2. Convergencia

2.1 Definición

El fenómeno de la convergencia en la industria de la comunicación tiene muchas definiciones. Esto no es de extrañar, ya que puede aludir a diferentes acontecimientos de la industria: algunos tecnológicos, algunos relacionados con el mercado, y otros de regulación. Es apropiado, por lo tanto, considerar las definiciones de convergencia que han surgido desde diversas perspectivas.

De acuerdo con la Comisión Federal de Comunicaciones (FCC), la agencia federal con la supervisión normativa de la industria de las comunicaciones en los EE.UU., la convergencia significa que "Los proveedores de sistemas de comunicación pueden ofrecer productos y servicios que compitan con los productos y servicios que actualmente se difunden por otras redes". A modo de ejemplo, la FCC cita el caso de una compañía de cable que proporciona servicio telefónico local o de una compañía telefónica local que ofrece los servicios de vídeo.

En la Comisión Europea (CE) se define la convergencia como "la capacidad de las diferentes plataformas de redes para manejar similares tipos de servicios, o la unión de los dispositivos de los consumidores como el teléfono, la televisión y la computadora personal" En esta elaborada definición, se hace referencia a la convergencia en diferentes niveles. En particular, se plantea que la convergencia puede significar tanto la competencia intermodal (por ejemplo, la competencia entre plataformas de entrega alternativos para los servicios de comunicaciones, como la línea fija las redes, las redes móviles, operadores de cable, operadores de satélite, las empresas de energía eléctrica, etc) y la integración.

La convergencia a veces se define con referencia a contextos específicos, tales como la convergencia de (1) Redes (2), industrias o mercados, (3) productos o servicios, (4) empresas, y (5) tecnologías. Ejemplos de cada uno son: las telecomunicaciones, datos y la radiodifusión (redes); las comunicaciones, información y entretenimiento (industrias); la televisión interactiva, la PCs con video incorporado, y la voz sobre protocolo de Internet (productos / servicios); las alianzas estratégicas entre la informática, las telecomunicaciones, la radiodifusión (las empresas); y telefonía fija y móvil (tecnologías).

Una forma de convergencia tecnológica que ha atraído considerablemente la atención en los últimos años es la que se da entre las telecomunicaciones fijas y móviles (a menudo llamado la convergencia fijo-móvil o CFM). Incluso esta forma de convergencia se produce a tres niveles: (1) a nivel de la red (usa el Protocolo de Internet basado en redes heterogéneas que ofrece voz, datos y servicios de vídeo -comúnmente denominado "triple play"); (2) en el nivel de servicio (un número y una factura, es decir, una ventanilla única para los servicios de telecomunicaciones y el contenido), y (3) el terminal (único e integrado equipo terminal que recibe y proporciona todas las aplicaciones / servicios).

A todo esto, dos hechos importantes se destacan. En primer lugar, la convergencia es a la vez integración (de sistemas, mercados y servicios) y competencia (entre plataformas tecnológicas que pueden entregar el servicio de extremo a extremo, es decir, desde la fuente de las aplicaciones o el contenido hasta el usuario final). Esta primera tendencia de la convergencia permite el consumo integrado por parte de los usuarios finales. La segunda tendencia proporciona la elección (incluso en tiempo real) sobre cómo y de quién recibir un servicio y contenido. La competencia intermodal de extremo a extremo elimina muchos de los problemas de acceso y de facilidades esenciales servicio básico tradicionalmente ha tropezado en las industrias de red.

En segundo lugar, la competencia tecnológica es a la vez una fuente, y una respuesta a, la convergencia. Por ejemplo, a la fuerte competencia entre redes fijas y móviles a menudo se les dará el crédito de haber impulsado la CFM. Además, en los últimos años, las dos plataformas tecnológicas que han surgido como los principales estándares en la prestación de alta velocidad de acceso a Internet son el Asymmetric Digital Subscriber Line (ADSL ) y el servicio de cable módem. La capacidad de ambos servicios - ADSL y cable - para ofrecer servicios convergentes (al menos de voz y datos por ahora) ha estimulado la competencia entre las telecomunicaciones y las compañías de cable.

2.2 implicaciones de la convergencia

Las implicaciones de la convergencia son de largo alcance, tanto en la demanda y la oferta. Desde la perspectiva del consumidor, probablemente la más importante implicación de la convergencia es que pronto será atendida por redes extremo a extremo. Este tipo de red puede ser una fuente para la "triple play" (o "cuádruple play" si los servicios móviles se consideran por separado de los servicios fijos de voz). Al igual que con las compras que hacemos en las industrias que no son parte de la industria de redes (e.g., automóviles o comida), pronto debería ser posible consumir perfectamente las comunicaciones y servicios multimedia de industrias de red. Esto es, desde un punto de vista del usuario final, que va a existir la posibilidad de elegir en tiempo real entre alternativas y proveedores de servicios esencialmente funcionalmente equivalentes. Más aún, cada "capa" que exista entre la fuente del contenido o servicio y el usuario final — un tema que retomaremos después — será utilizada en forma complementaria para servir al usuario final, y todas esas capas serán operadas por el mismo proveedor.

La segunda implicación clave de la convergencia es también un estímulo para este trabajo. La convergencia no es símplemente un fenómeno tecnológico o de mercado, sino que también tiene importantes ramificaciones en la política y regulación. Dado que la convergencia hace borrosos, e incluso elimina, los límites entre varios sectores tecnológicamente diferentes, los reglamentos sectoriales (como las que surgieron de la tradición de regulación de servicios públicos y han sido diseñados para entornos de monopolio natural) pueden llegar a ser, en el mejor de los casos, anacrónicos y, en el peor de los casos, irrelevantes. Esto plantea varias preguntas: ¿Debería existir un paralelismo de principios normativos de la convergencia y las prácticas de los sectores convergentes? ¿La regulación de la industria convergente debe estar en manos de un solo regulador? Más fundamentalmente, ¿Debe mantenerse la regulación tradicional en una industria convergente? ¿O deberían ser re-concebidas de abajo hacia arriba las políticas para la era de la convergencia? ¿Dichas políticas tienen que ser intervencionistas o reactivas? ¿La convergencia implica el fin de la política como la hemos conocido? En caso afirmativo, ¿cuales de las vacas sagradas tradicionales de la regulación de las telecomunicaciones deberán descartarse? En este trabajo se abordan algunas de estas preguntas y, en particular, las controversias con respecto a la neutralidad y la red de franquicias de video que se han encendido por una industria cada vez más convergente.

3. Regulación y Política bajo la Convergencia

Las bases tradicionales de la regulación de la industria de telecomunicaciones - e incluso algunas modernas variantes de esa forma de regulación - se han adaptado de las siguientes premisas de regulación de servicios públicos:

  • La capa física de la industria - comúnmente conocida como el acceso a la red de "última milla” – es un monopolio natural y una facilidad esencial que plantea posibles barreras a la entrada y diversos riesgos de competencia asimétrica para los proveedores rivales.
  • La regulación debe tratar de emular los resultados de procedimientos competitivos exigiendo el cumplimiento de las normas de fijación de precios basada en la eficiencia asignativa, incluso bajo condiciones subóptimas.

Estas premisas proporcionan los antecedentes intelectuales de diversas formas de regulación de las telecomunicaciones, empezando por la tasa de rendimiento (o basados en costos) y siguiendo por la regulación diversas formas de regulación de incentivos (incluidos los precios máximos, compartir ingresos o ganancias, bandas de rentabilidad, y flexibilidad de precios limitada). En el fondo, todas estas formas de regulación tienen una cosa en común en mayor o menor grado: son diseñados para asegurar que los usuarios finales no sean explotados precios minoristas de carácter monopolístico y; para que cuando se involucra la interconexión o el uso compartido de redes, no sean posibles las manipulaciones a la competencia de precios y calidades de los servicios esenciales al por mayor.

Adicionalmente, la regulación de las telecomunicaciones en muchos países ha estado guiada por otros imperativos:
  • La regulación debe aplicarse por separado a los distintos servicios o categorías o servicio, donde las distinciones entre ellos no se derivan de distinciones técnicas, sino más bien de la ubicación o distinciones geográficas (como local, larga distancia nacional, internacional y de larga distancia las llamadas de voz).
  • La industria de las telecomunicaciones está sujeta efectos de red o externalidades (el valor de una red para los actuales abonados se eleva cuando se unen suscriptores adicionales) y, por tanto, debe hacerse todo lo posible - incluso, si fuera necesario, el uso de regulación con subsidios cruzados - para garantizar el acceso a, y el uso de, la red pública de telecomunicaciones para todos los segmentos de la población. Este mandato de "servicio universal" se traduce en una obligación al "portador de última instancia", en virtud del cual el proveedor de la red regulada debe estar dispuesta a ofrecer, previa solicitud, el servicio a cualquier cliente en cualquier lugar. Los principios de los portadores comunes (incluidos, por lo general, requisitos de precios "justos y razonables" y la no discriminación) comúnmente se aplican en estas circunstancias.

3.1.1 Monopolio Natural

El principio fundamental de la regulación de las telecomunicaciones tradicional siempre ha sido que el típico cable de red de telecomunicaciones (o "fijo") diseñado para la telefonía vocal - sobre la base de la tríada de bucle local (o, en la última milla), conmutación, y transporte entre oficinas - es un monopolio natural. Es decir, la red telefónica pública conmutada (RTPC) implica, por diseño, grandes costos de capital fijo y un relativamente bajo costo operativo incremental. Como resultado, la escala mínima de eficacia de las operaciones es tan elevada en relación con la demanda del mercado existente para los servicios de la RTPC que la forma más eficiente de la estructura de la industria puede ser la de un solo proveedor de la red. Las extendidas economías de escala implican que es posible ofrecer servicios a menor costo promedio por una sola red, y no por dos o más. Además, el uso compartido de de las instalaciones fijas por diferentes redes significa que las economías de alcance permiten el suministro conjunto de los servicios de red a un costo inferior a la provisión separada de los servicios por múltiples redes. Estas propiedades de los costos de las RTPC (p.e. que disminuyen con el volumen y son sub-aditivos a través de los servicios) implica que la preservación de la estructura de monopolio natural en la industria es, al menos, asignativamente eficiente - la forma de la eficiencia económica que viene de los precios fijados en sus respectivos costos marginales o incrementales. En realidad, la forma estricta de la eficiencia asignativa no puede aplicarse a la fijación de precios de los servicios de RTPC, porque tales precios no pueden recuperar los grandes (y muchas veces hundidos) costos fijos de las instalaciones de la RTPC. La eficiencia asignativa es por lo tanto aplicable en una situación subóptima en el sentido de permitir que el proveedor de la red establezca sus precios por encima de los costos incrementales que subyacen en algunos de forma óptima (Ramsey es un ejemplo) a fin de permitir la plena recuperación de costos. No obstante, para evitar cualquier ejercicio del poder de mercado de la RTPC en estas circunstancias, las autoridades reguladoras, en lugar del proveedor de la red en sí, llegan a determinar cómo (y cuánto) podrá apartarse los precios de los costos incrementales.

3.1.1 Liberalización y competencia

A pesar de las condiciones de monopolio natural, muchos países han liberalizado sus mercados de telecomunicaciones y han introducido la competencia en diversos grados de su RTPC. Esto no se ha logrado mediante el fomento de la duplicación desenfrenada de las redes PSTN o el fomento de la reventa de servicios, sino por las políticas que el mandato de compartición de redes o el "desempaquetamiento" de las instalaciones esenciales a precios (supuestamente) basados en costos determinados por los reguladores. En su mayor parte, las instalaciones en cuestión han sido las relacionadas con la última milla, que son el mayor componente de red y los costos hundidos de la RTPC. Por lo tanto, en un interesante (y contra-intuitivo) cambio, inherente a la estructura de monopolio natural de la RTPC dado que se ha colocado al servicio de la competencia en sí, al permitir que los rivales construyan sus negocios evitando costos hundidos en la entrada antes de embarcarse en la construcción de sus propios servicios de red. Más precisamente, las políticas de desagregación obligatoria han tenido el efecto de hacer de líneas fijas mercados "discutibles".

Por desgracia, aunque aparentemente sobre la base de una aplicación de la eficiencia asignativa (principalmente haciendo disponibles al mayoreo para los rivales las instalaciones esenciales de la RTPC a precios basados en costos incrementales), el desempaquetamiento y la interconexión son prácticas destinadas a desarrollar la competencia de las telecomunicaciones que se encuentran en controversia. La mayoría de las veces, los precios fijados para desempaquetamiento de la RTPC no se han basado en un soporte real de los costes económicos, sino más bien en los costes calculados para un hipotético operador eficiente, que opera su red a plena capacidad o explota y dispone de economías de escala. Como era de esperar, los precios de las facilidades desagregadas basados en costos hipotéticos que por lo general subestiman los costos, han alentado la ineficiencia y la competencia desigual induciendo a los competidores a confiar excesivamente en estas instalaciones en lugar de en las suyas propias. Esto habría generado consecuencias inesperadas (aunque perfectamente predecibles) amortiguando los incentivos tanto de la RTPC como de sus rivales para invertir en nuevas o adicionales facilidades de red. En otras palabras, la mala aplicación de la regulación ex ante, destinada originalmente a viciar el poder de mercado de los monopolios naturales y desarrollar la competencia de conformidad con la eficiencia asignativa, sólo ha logrado obstruir la eficiencia dinámica, una cuestión que hay que examinar en detalle más adelante.

Independientemente de las virtudes tradicionales de regulación ex ante basada en el modelo de monopolio natural, los recientes avances tecnológicos (en particular, en las alternativas tecnológicas para la RTPC) y la convergencia han hecho que la preocupación por la vitalidad de la competencia en líneas fijas sea menos importante. Dos acontecimientos parecen ser particularmente dignos de mención. El primero es el advenimiento de la competencia intermodal. La segunda es la creciente demanda de los consumidores de “única fuente” de múltiples servicios o "triple play", un desarrollo que está impulsando a las redes intermodales al despliegue de plataformas de entrega extremo a extremo con suficiente y fiable ancho de banda y que pueda prestar servicios a precios asequibles.

En resumen, la regulación tradicional ha sido horizontal en todos los aspectos, con un regulador frecuentemente compartido o distribuido por motivos jurisdiccionales. La eficiencia asignativa ha sido la pieza central de la regulación ex ante, y esa regulación ha tenido la intención (aún cuando no siempre adecuadamente diseñada) de evitar el uso anticipado del poder de mercado de monopolio natural, al tiempo que se preservan los incentivos a la eficiencia. Las políticas regulatorias y algunos instrumentos políticos clave (por ejemplo, interconexión, reventa, y la desagregación obligatoria de servicios esenciales) se han utilizado para diseñar la competencia de líneas fijas y para evitar las barreras de entrada en forma de los enormes costes irrecuperables asociados a la construcción de su propia red (esencialmente duplicación). Los resultados de esas políticas han sido, sin embargo, mixtos. Por otra parte, el cambio tecnológico y las circunstancias del mercado han alterado el paisaje competitivo en sí, mediante la promoción de una gama más amplia de posibilidades que se derivan de la vigorosa competencia intermodal y relegando la más estrictamente definida competencia entre las líneas fijas a un segundo nivel. Estos acontecimientos han hecho obsoleta la regulación tradicional y obliga a buscar un enfoque básicamente diferente en materia de regulación.

3.2 ¿Es mejor la regulación vertical del modelo de capas?

En los últimos años, una nueva línea de pensamiento ha sido dirigida hacia la forma y modelo de la red de telecomunicaciones en una era de convergencia. Indepen-dientemente de las muchas variaciones que se han presentado sobre este tema, existe un sólido consenso de que la red bajo convergencia será de banda ancha y basada en IP, es decir, basado enteramente en la conmutación de paquetes, más que en la RTPC de banda estrecha y basada en conmutación de circuitos que ha servido para telecomunicaciones durante tan largo tiempo. En particular la visión de una red basada en IP propone un diseño extremo a extremo en el cual la inteligencia reside en los extremos de la red y la red física se mantiene neutral a las aplicaciones y contenido. En efecto esto traslada el control y la habilidad de discriminar desde la red central hacia las aplicaciones del lado del usuario final y los proveedores de aplicaciones y contenidos (esto se analizará posteriormente). Por ahora, es suficiente contrastar esta visión alternativa de la red de telecomunicaciones convergente y la antigua RTPC, y explorar si el contraste implica un método alternativo para el diseño y regulación. Debido a que puede controlar la ultima milla, el acceso a los usuarios finales y el flujo de servicios a ellos, la RTPC ha sido objeto de regulación común en todo el mundo. Si ese control ya no existe en redes basadas en Internet ¿qué debe sustituir la regulación horizontal que durante mucho tiempo ha sido aplicada a las telecomunicaciones?

En los últimos años varias propuestas han tratado de sustituir la regulación horizontal de telecomunicaciones con un modelo vertical de capas considerado como más adecuado para una red centrada en Internet. En 1978, el modelo de referencia para la Interconexión de Sistemas Abiertos (OSI) desarrollado por la Organización Internacional de Estandares (ISO) presentó un diseño de siete capas. Algunos observadores creen que el modelo OSI se puede adaptar a la formulación de la política en una era de convergencia. Uno de esos observa que la red que consiste en
cuatro capas apiladas de abajo hacia arriba en el siguiente orden: (1) capa física (2), capa lógica, (3) capa de aplicaciones o servicios, y (4) capa de contenido. Aún cuando las capas en el modelo OSI estaban originalmente destinadas a identificar los pasos sucesivos en una red que se requieren para transmitir contenido en toda la ruta hasta el usuario final, diversos autores vieron ese modelo como una base sólida para formular políticas de telecomunicaciones.

Para este modelo de capas verticales, Werbach propone que la regulación debe orientarse, como mínimo, a las capas inferiores (en especial la capa física subyacente o la red) debido a que "la apertura a una capa permite la innovación en las capas superiores." Otros estudiosos también han propuesto se empalme la regulación con la estructura del modelo de capas basándose en los principios establecidos para la Internet. Sobre la base de estas declaraciones, el ex MCI incluso presenta una política de promoción pidiendo una reestructuración de la regulación de las telecomunica-ciones, de conformidad con el modelo de capas. En dicho documento, MCI propone mantener prácticamente toda la regulación a los portadores. Sostiene que el poder de mercado es más probable que resida en la capa física (la red), por lo que la continuidad de la regulación de esa capa es necesaria para asegurar que permanezca "abierta" a las capas superiores y para prevenir que el monopolio aproveche las ventajas de la capa física en los estratos superiores. En esencia, todo lo que ha cambiado en la formulación de MCI respecto de las políticas no es más que la arquitectura del modelo de política, no el subyacente régimen regulatorio propiamente dicho.

El documento de MCI atrajo las críticas de muchos investigadores que lo acusaron básicamente de “poner vino viejo en botellas nuevas”. Algunos señalaron que nada iba a cambiar de la regulación horizontal tradicional en la que la idea central de toda la regulación ex ante es impedir que el ejercicio del poder de mercado de los propietarios de la red. Otros señalaron que el documento de MCI no aborda la cuestión de si el poder de mercado (principalmente en forma de la última milla) sigue siendo un problema lo suficientemente grave en una época marcada por la convergencia y la competencia intermodal como para que se justifique la continuación del modelo de regulación del operador de transporte común (portador). Además, muchos lamentaron los graves desincentivos para las inversiones en la red de banda ancha que inevitablemente seguirá a la adopción de la política propuesta por MCI. Por último, la propuesta de MCI fue rechazada con el argumento de que es probable (1) aumentar, en lugar de reducir, la intervención del gobierno, en particular para los segmentos de laindustria de la comunicación anteriormente no reguladas (por ejemplo, acceso inalámbrico), (2) eliminar la discriminación eficiente de precios como una forma de priorizar el tráfico de la red y mejorar la gestión de los recursos de la red, y (3) estar construida sobre la rigidez que impide que la regulación se adapte en forma rápida y flexible a los cambios introducidos por las tecnologías innovadoras que son casi seguro que sustituyen la Internet.

Somos solidarios con la crítica de que la política de promoción basada en los niveles de MCI no representa una gran transformación de los preceptos fundamentales de la regulación tradicional. En su parte central, todavía representa una visión de monopolio natural en la red (en particular, la última milla), aunque está incrustado dentro de una visión más amplia de las conexiones entre la red y los usuarios finales en un extremo y diferentes fuentes de servicios, aplicaciones, y contenido, por el otro. El requisito de acceso abierto de MCI para la capa física es, pues, poco diferente de las tradicionales obligaciones RTPC para el portador común. Además, como algunos estudiosos han señalado, incluso esta posición política debe basarse en la premisa de que el proveedor de conexiones de última milla sigue siendo un monopolio natural capaz de ejercer poder de mercado a menos que sean controlados por la regulación. Por lo tanto, dichas alternativas competitivas realistas existen para la conectividad de la última milla, como cabría esperar en virtud de convergencia, por lo que ni la regulación tradicional horizontal ni un requisito de acceso abierto para la capa física en el modelo de capas puede mantener alguna relevancia política. Si la finalidad de la regulación es mejorar las deficiencias del mercado, las oportunidades para reprimir el ejercicio del poder de mercado, y fomentar los resultados que se esperan en los mercados competitivos, entonces es difícil ver cómo, simplemente la sustitución de la regulación horizontal tradicional con un estilo de MCI de la política de capas modelo podría ser una mejora.

En nuestra opinión, la sustitución de la regulación horizontal tradicional debe tener una lógica que tenga visión de futuro y esté en sintonía con la evolución real de competencia en el mercado. En la siguiente sección, se explica que la aparición de múltiples alternativas para plataformas intermodales para la provisión de servicios de comunicaciones y servicios multimedia ha reducido considerablemente el problema de la última milla y las consiguientes características de monopolio natural que fueron la razón de ser de la regulación de portador común. Creemos que es imperativo que la piedra angular de la política de comunicaciones se traslade desde una eficiencia asignativa estática hacia una eficiencia dinámica.

3.3 Estableciendo una nueva direccionalidad política

3.3.1 ¿Se requieren nuevas políticas?

Constituye una tautología que la política de telecomunicaciones debe tener en cuenta, y basarse en, las realidades tecnológicas y de mercado en la industria de las telecomunicaciones. Sin embargo, como hemos explicado en la sección anterior, la regulación de las telecomunicaciones-ya sea real o propuesta-no ha avanzado mucho de la era pre-convergencia, centrada en RTPC y basada en el modelo de monopolio natural. Los cambios tecnológicos que impregnan esta industria están creando retos a las visiones existentes sobre el funcionamiento de las redes de telecomunicaciones. La arquitectura de red RTPC en el que toda la inteligencia para los servicios reside en el centro de la red está cambiando a una arquitectura basada en Internet en la que la inteligencia reside en los extremos de la red. La red se transforma de una red inteligente a una red tonta mientras que los dispositivos en mano de los usuarios (terminales) se hacen inteligentes. Este cambio es profundo por una serie de razones.

En primer lugar, a diferencia de la PSTN, las redes basadas en Internet no pueden afectar las transmisiones (ya sea de voz, datos, imágenes o vídeo) entre los usuarios finales. Esas transmisiones, en forma de paquetes de datos IP, no se tramitan a lo largo de circuitos pre-seleccionados o dedicados sino por rutas disponibles en momentos para encaminar los paquetes. Es evidente que el propietario de la red conserva cierto grado de control dentro de la RTPC, pero no en el caso de las redes basadas en IP.

En segundo lugar, dado que el contenido y las aplicaciones se generan, demandan y suministran en los extremos de las redes basadas en IP, la red en sí misma no puede ser utilizada como un instrumento para discriminar indebidamente, manipular el contenido, o limitar el acceso a los usuarios finales. Se trata de una importante fuerza liberalizadora en sí misma: se reduce el papel de la red para que simplemente cumpla de una posición de facilitador neutral de prestación de servicios y, por tanto, una adecuada plataforma para la innovación de los proveedores de contenidos y usuarios. Por ejemplo, las comunicaciones (ya sea a través de voz, datos, o el vídeo) puede ocurrir entre dispositivos conectados a diversos extremos de la red sin que dichos dispositivos deban cumplir con estándares pre-concebidos . De este modo, los usuarios finales y proveedores de contenido están facultados para usar una variedad de dispositivos de comunicación. La RTPC es incapaz de fomento de la innovación de esta manera.

En tercer lugar, el problema de la última milla, que es esencialmente parte del modelo “red inteligente – terminal tonto” es fácil de solucionar en las redes basadas en Internet, ya que en ésta no existen los medios disponibles para utilizar la red para dirigir o negar las formas específicas de acceso a los proveedores y/o usuarios. Esto proporciona una excelente oportunidad para desarrollar alternativas al estándar (RTPC de líneas fijas de acceso) como la banda ancha inalámbricas, cable, satélite, líneas eléctricas, etc, De hecho, hoy en día es bastante común en algunos países que los usuarios finales tengan la posibilidad de elegir entre múltiples tecnologías de última milla, y que la caída del costo del ancho de banda esté haciendo posible la elección – incluso en tiempo real- de dichas tecnologías. Así, lo que antes era una limitación de la RTPC (o las redes fijas en general) es ahora una oportunidad para una diversidad de redes sin precedentes.

En estas circunstancias, las redes basadas en IP solucionan muchos de los enigmas políticos asociados con las instalaciones esenciales, la última milla, el poder de mercado, etc. La naturaleza neutral y extremo-a-extremo de dicha red también hace posible una solución tipo bypass que pone a cargo a los usuarios finales y proveedores de contenido o aplicaciones (no propietarios de la red). En tal situación, la regulación de las telecomunicaciones podría casi ser innecesaria. Los escépticos de este punto de vista pueden argumentar, sin embargo, que aún cuando Internet se ha vuelto inmune a la manipulación o control, los controles regulatorios todavía serían necesarios para garantizar que las redes privadas interactúen con la Internet y por tanto sean accesibles a los usuarios finales y proveedores de servicios. Pero no sería razonable este argumento para retener algunos de los controles tradicionales de la política. Como hemos señalado anteriormente, las alternativa tecnologías de última milla ahora abundan. Sin monopolio del acceso, que era el de preservar la RTPC, parece muy poco probable que las redes privadas puedan ejercer con éxito un control sobre los usuarios finales y proveedores de servicios. Nos parece que más fructífera sería una opción que descarte el “modo preventivo” hacia uno que aliente la aparición y desarrollo de alternativas viables intermodales.

3.3.2 Políticas basadas en la eficiencia dinámica

Proponemos que la piedra angular de la política de comunicaciones en un mundo centrado en Internet y en la era de convergencia debe ser la eficiencia dinámica. Las implicancias de la eficiencia de las políticas se han estudiado ampliamente, pero, en general, sólo las medidas de eficiencia estática han sido consideradas. Los dos más comunes son las medidas de (1) eficiencia asignativa, que mide si una empresa ha optado por la asignación óptima de recursos , habida cuenta de precios de los mismos, y (2) técnicos o de eficiencia productiva, que mide si una empresa ha aprovechado al máximo la producción dado un conjunto de aportaciones de recursos. Por desgracia, este tipo de medidas de eficiencia en las que se ha basado tradicionalmente la regulación de las telecomunicaciones no tomaron en cuenta debidamente el dinamismo y la naturaleza de la evolución de la industria de telecomunicaciones.

La aplicación estricta del principio de eficiencia asignativa establece restricciones para que una empresa establezca precios que recuperen exactamente los costos marginales. Dado que es insuficiente para que un monopolio natural recupere sus altos costos fijos, dicha regla de tarificación no puede ser siempre aplicada con exactitud. La regulación óptima debe así asegurar que el monopolio natural recupere sus costos totales estableciendo sus márgenes de forma tal que se minimicen las pérdidas de eficiencia asignativa que se desprenden de tales tarifas. En realidad, la regulación de las telecomunicaciones rara vez ha sido óptima en este sentido, aunque la eficiencia asignativa ha sido siempre la inspiración subyacente para tal regulación.

La principal limitación de la eficiencia asignativa es que no funciona tan bien cuando los lineamientos de política se establecen fuera de los confines de un monopolio natural. La competencia es un proceso dinámico e inquietante: las empresas emplean tecnologías alternativas, métodos producción y técnicas de comercialización que compiten para atraer clientes. Con el tiempo, las preferencias de los consumidores ayudan a establecer estándares y protocolos para determinar qué servicios (o variantes de un servicio) sobreviven o no. La innovación se produce como respuesta a las nuevas posibilidades y es alimentada por los inventos o nuevas ideas que a menudo generan rentas a corto plazo o ventajas al que “golpea primero”. En el transcurso de este proceso de nacimiento y muerte de servicios, las inversiones se realizan y abandonan y las corporaciones incurren en inversiones iniciales (muchas veces a costo hundido) en la expectativa de recuperación en épocas posteriores.

En este entorno, es más razonable creer que la forma en que se utilizan eficientemente los recursos a lo largo del tiempo es más importante para el bienestar social que si la eficiencia asignativa es satisfecha en cualquier momento dado. Es decir, si se considera la eficiencia en términos dinámicos, los resultados transitorios o momentáneos carecen de importancia. Por lo tanto, cualquier regulación que intente guiar el proceso competitivo debe tener la eficiencia dinámica, en lugar de la estática, como piedra angular. Por otra parte, las acciones o decisiones que resultan ser dinámicamente eficientes con el tiempo no tienen por qué ser asignativamente eficientes en cualquier instante de tiempo. Esto es, la competencia dinámica (schumpeteriana) sobre la base de capital y compromisos a largo plazo, por su propia naturaleza, no puedan cumplir con los requisitos de eficiencia asignativa estática, y es inútil la construcción de políticas de telecomunicaciones estáticas basadas en torno a los principios de eficiencia estática.

Con la eficiencia dinámica como la pieza central de la política de telecomunicaciones en una época de convergencia, varios enigmas de la política podrán ser decantados. Los siguientes son algunos ejemplos de esta posibilidad.

3.3.2.1 El problema de la última milla

Las perennes preocupaciones con la última milla en virtud del problema basado en la RTPC es probable que desaparezcan conforme las plataformas y tecnologías compitan entre si para proveer servicios de extremo a extremo a los usuarios finales y les provean a estos últimos un mejor control sobre el acceso a la red y los dispositivos necesarios para recibir los servicios. Por otro lado, los rivales que dependen de las políticas y mandatos de redes compartidas para tener acceso a la RTPC y la red de usuarios finales pueden recurrir a tecnologías alternativas. Los proveedores de distribución de contenidos, en particular, no requerirán ser propietarios de sus propias redes para producir y entregar servicios innovadores en estas circunstancias. Las reglas de acceso desagregado a elementos de red y las normas de fijación de precios ya no serán necesarias.

3.3.2.2 Desarrollos tecnológicos

Adoptar la eficiencia dinámica como principio guía posibilitará que los hacedores de política eviten estar permanentemente tratando de alcanzar el progreso tecnológico. La regulación de las telecomunicaciones está repleta de instancias de bypass o alternativas tecnológicas que han hecho que la regulación sea poco efectiva o innecesaria. La convergencia, sea por la integración de diferentes alternativas o por la competencia intermodal, está cumpliendo dicha función por sí misma. Este es el momento oportuno para que los hacedores de política sigan el desarrollo tecnológico en lugar de tratar de liderarlo. Dado que la eficiencia dinámica permite realizar evaluaciones sobre cuan bien se está desempeñando la industria, no será necesario implementar políticas ad-hoc que intenten resolver problemas transitorios de ineficiencia de la industria. Este constreñimiento puede proteger a los hacedores de políticas ante la creación inconsciente de oportunidades para el arbitraje regulatorio que posteriormente alimenten distorsiones en el mercado.

3.3.2.3 Servicio Universal

En ninguna otra parte se resume mejor el conflicto entre los deseos de establecer la eficiencia asignativa y el objetivo social del servicio universal (garantizar accesibles y asequibles servicios los ciudadanos). El objetivo del servicio universal es generalmente justificado por los efectos de red y las externalidades asociadas con la industria de las telecomunicaciones. Dado que el aumento de suscriptores se cree que aumentar el valor económico de la red que los sirve, la mayoría de los países han adoptado el servicio universal (o, en menor grado, el acceso universal). Estos se basan en general o las subvenciones dirigidas a fomentar el incremento marginal de abonados (por lo general la mayoría de los indigentes o en la parte de bajos ingresos) a unirse y quedarse conectados, aun cuando no se originan muchas llamadas desde sus teléfonos.

La regulación tradicional para asegurar esto ha sido la de subvencionar los servicios de acceso a la red (es decir, costo incremental por debajo de su precio), obligando a los operadores a establecer el uso de servicios por encima de los costos incrementales. Esta fórmula es una violación de la norma de eficiencia asignativa, pero suele ser justificada por el argumento de que los costos de la violación se compensan con la internalización de la red y las externalidades generadas por la expansión de la red. Por desgracia, las subvenciones cruzadas generan importantes pérdidas, despilfarro, y no pueden mantenerse en entornos competitivos o de convergencia. Por otra parte, no está claro desde un punto de vista empírico, cuánto beneficio económico se deriva de la captura de las supuestas externalidades de red (especialmente en los países desarrollados donde las tasas de suscripción son altas) y dicho beneficio supera las ineficiencias y otros costos asociados con cualquier
programa de subsidios en el cada vez más competitivo mercado, En estas circunstancias, la mejor esperanza para el éxito de la política del servicio universal puede muy bien residir en desechar los subsidios cruzadas totalmente a favor de la financiación general con ingresos fiscales (ya sea garantizado de las empresas de todo tipo en las industria de las comunicaciones o la economía en general).

Mejor aún, en la era de la convergencia, una política apropiada sería la de garantizar el servicio universal (o acceso) indirectamente, mediante el fomento de costos más bajo de acceso a tecnologías emergentes - por lo tanto, disminuyendo constantemente el tamaño del fondo de acceso universal - a pesar de que las tecnologías de vanguardia (y su despliegue) ganan rentas y disfrutan las ventajas de ser los que “pegan primero”. Desde una perspectiva dinámica, sería más eficiente en un entorno de convergencia dejar que del mercado (y competencia) evolucionen las soluciones de acceso adecuadas, en lugar de confiar en subsidios cruzados políticamente atractivos, pero en última instancia, ineficaces.

3.2.2.4 Poder de Mercado

Algunas de las transformaciones más grandes en política de telecomunicaciones en los últimos años han estado relacionadas con el rol apropiado de la regulación ex ante y ex post. La regulación tradicional ha sido más ex-ante por naturaleza, con el objetivo general de prevenir, ya sea el comportamiento indeseable (regulado por los operadores) o los resultados, o el fomento de la competencia. Esa regulación tiene necesariamente un carácter preventivo y para sectores específicos, y tiene la intención de moldear el comportamiento de los operadores regulados directamente y de los rivales no regulados indirectamente. La regulación norteamericana es la que mejor ejemplifica este rasgo característico. Por otra parte, las políticas antimonopolio y de defensa de la competencia o las políticas que han subido a la palestra en los últimos años no son ni de previsión ni de sectores específicos. Por el contrario, su propósito es modificar la forma o el comportamiento "después del hecho", a través de investigaciones y remedios en respuesta a las denuncias de conductas contrarias a la competencia (como los medios que persiguen monopolizar o controlar de uno u otro modo el mercado). La nueva regulación Marco de la Unión Europea se adhiere más estrechamente a las políticas ex post. En virtud de este marco, las autoridades nacionales de regulación (ANR) en los Estados miembros realizan investigaciones sobre el Poder Significativo de Mercado («PSM») de acuerdo con las directrices emitidas por la Comunidad Europea (CE).

El Poder de Mercado es el eje central en virtud de ambas formulaciones, si bien la regulación ex ante intenta para evitar que se desarrolle en primera instancia, la regulación ex post proporciona los medios para detectar y mitigar en caso que exista. La teoría económica define el poder de mercado como la capacidad aumentar y sostener el precio de un bien (o servicio) por encima del nivel que prevalecería en un mercado competitivo. Aunque esta definición es imprecisa en cuanto a la forma exacta o contornos del "mercado competitivo", es razonable inferir que el principio subyacente es la eficiencia asignativa. Por lo tanto, en virtud de ambas regulaciones ex ante y ex post, la sospecha acerca de PSM se relaciona casi automáticamente con los precios por encima de los costos incrementales (porque marginal o costo incremental de precios es un precepto fundamental de la "competencia perfecta"). Los operadores de telecomunicaciones de redes se ven invariablemente en la necesidad de establecer sus precios por encima de los costos incrementales con el fin de recuperar todos sus costos - precisamente la forma de fijación de precios que podría desencadenar una investigación de poder significativo de mercado.

Incluso si se reconoce que los mercados de telecomunicaciones no pueden ajustarse plenamente a la política de precios de un mercado perfectamente competitivo, o que las óptimas diferencias de los costos incrementales pueden llegar a ser una segunda mejor opción de eficiencia frente al comportamiento anticompetitivo, puede existir gran confusión en demostrar el poder de mercado. Por esta razón, las investigaciones de poder de mercado se basan con frecuencia en las cifras más fáciles de medir como la cuota de mercado en la premisa de que las empresas con mayores cuotas de mercado son más capaces de establecer precios de forma monopolística o tener ganancias "excesivas". Sin embargo, esto ata la cuota de mercado a la presunción de poder de mercado y su corolario, la fijación de precios de monopolio. En las industrias de red reguladas como las telecomunicaciones, donde los operadores tradicionales han tenido históricamente altas (aunque decrecientes en la actualidad) cuotas de mercado cuando se les permitió actuar como monopolio natural regulado, este enfoque de realizar pruebas para determinar el poder de mercado puede ser engañoso. Por otra parte, las cuotas de mercado corresponden a "una visión hacia el pasado" por naturaleza y, por tanto, no constituye una base válida para predecir la conducta futura de conducta de fijación de precios. En un mercado competitivo, por ejemplo, incluso los pequeños competidores pueden efectivamente comprobar el poder de fijación de precios de un titular relativamente grande.

Moverse hacia un modelo basado en la eficiencia dinámica para la formulación de las políticas de telecomunicaciones puede facilitar considerablemente algunos de los problemas inherentes de las investigaciones sobre PSM y su ejecución. Por una parte, la segunda-mejor opción de fijación de precios de los servicios podría no ser vista automáticamente como una manifestación de poder de mercado y ser procesado como tal. En lugar de verlos con las sospechas, los encargados de formular políticas pueden relacionarlo con los avances tecnológicos y la diferenciación de los productos (y, sobre todo, las rentas de corto plazo y las ventajas del que llega primero) como contribuyentes de la dinámica del desarrollo eficiente de la industria. Eso daría lugar a políticas que eliminen el miedo a la expropiación indebida y preservar los incentivos para una mayor inversión e innovación. En una era de convergencia, la regulación asimétrica del titular de línea fija no es ni eficiente ni necesaria, sobre todo cuando la competencia entre alternativas y plataformas de distribución y entrega de contenidos de extremo a extremo se han convertido en la norma.

3.3.3 Lecciones generales de política para la convergencia

Existen tres lecciones claras para los hacedores de políticas con relación al mundo post-convergencia.

• Un mayor grado de moderación (en particular en relación con la regulación ex ante) es probable que se convierta en una virtud. Con el colapso del modelo de monopolio natural, y la resultante inmaterialidad de eficiencia asignativa como principio rector, la preocupación de la política pre-convergencia para prevención la aparición o el ejercicio del poder de mercado ya no será una prioridad urgente.

• Con el uso de la eficiencia dinámica como su nuevo principio rector en un entorno global post-convergencia, la política de telecomunicaciones debe estar mucho más dirigida a alentar la aparición y crecimiento de las nuevas tecnologías y plataformas, las nuevas instituciones del mercado, y las nuevas formas de empaquetado de los servicios y contenidos. Esto puede significar tomar la más larga, inter-temporal visión de la asignación y utilización de recursos, y puede significar abstenerse de utilizar la regulación para eliminar las rentas de corto plazo y las ventajas del que llega primero. El fomento de la competencia dentro de cada capa del modelo de capas debe ser la prioridad de la política en virtud de la convergencia, pero con un enfoque de dejar que el mercado haga su trabajo a pesar de las desviaciones de corto plazo en la eficiencia asignativa. Si es necesario, los reguladores siempre puede recurrir a las políticas de competencia o la regulación ex post a fin de mitigar los casos de demostrado poder de mercado, a pesar de tener en cuenta que la realización de investigaciones de mercado bien podría resultar ser difícil y polémica en el período post-convergencia global (por las razones señaladas anteriormente).

• La característica más notable del período post-convergencia global es probable que sea la primacía del usuario final. Desde este punto de vista, en virtud de la convergencia, el usuario final, no el proveedor de servicios de red, es probable que esté a cargo en lugar de recibir pasivamente los servicios de un menú de opciones disponibles. El usuario final tendrá la oportunidad y los medios (a través de dispositivos inteligentes que pueden ser conectados a la red) para relacionarse con las redes y los proveedores de servicios de forma interactiva y, más importante aún, seleccionar, en tiempo real, las opciones de servicios y contenidos, así como de quién debe proporcionarle el transporte. Con el usuario final a la cabeza, no sólo el viejo modelo de regulación de la red o proveedor de servicios pierde total justificación, sino que también algunos de los más preciados instrumentos de ese modelo normativo (incluida la insistencia en la no-discriminación en general, como parte de las obligaciones del operador incumbente) tendrán que ser desechados.

4. Temas Emergentes de la Política Bajo la Convergencia

4.1 Temas emergentes

La convergencia está ya instalada, en un mayor o menor grado, en el mundo. Los operadores de redes convergentes y que se permanecen en la Alianza para la Convergencia Fijo-Móvil están liderando dicho tipo de convergencia en más de 20 países. Al mismo tiempo, la convergencia en el sentido de competencia intermodal extremo-extremo está también calentando de forma que las nuevas redes de fibra reemplazarán a las antiguas redes de cobre. Esta transformación hacia las redes de nueva generación (NGN) crea nuevas posibilidades de consumo (como la televisión IP), la comunidad de hacedores de políticas se ve complicado por nuevas controversias que son, al menos parcialmente, la adopción de algunas de las políticas actuales. Dos buenos casos provienen de los Estados Unidos donde las batallas regulatorias y legislativas están causando estragos (1) neutralidad de red y (2) la franquisia de video para los operadores de telecomunicaciones. Estos temas son artefactos de la política regulatoria norteamericana, pero pueden jugar hasta el final en otros países. Examinaremos estos asuntos en esta sección.

4.2 Neutralidad de red

Tal vez la característica más llamativa del debate sobre la llamada neutralidad de red es que no parece ser una definición común del término "neutralidad de red". De hecho, durante todo el intenso debate, las partes enfrentadas a veces parecen estar hablando más allá de los otros. Consideremos el siguiente resumen de las posiciones de los protagonistas de ambas partes.

4.2.1 Los argumentos a favor

Los pedidos de adopción de neutralidad de red como la que rige la ley en virtud de la convergencia se han basado en la premisa de que "un bit es un bit " Es decir, con la digitalización de voz, datos, video y transmisiones, no tiene sentido tratarlos como servicios diferentes (dicotomía "servicio de telecomunicaciones" vs "servicio de información") o discriminar en materia de precios sobre la base de si el bit es siempre para la transmisión de voz o servicio de servicio de video. Por lo tanto, los defensores de la neutralidad de red argumentan, que la más sensata política para fomentar el crecimiento continuo y la innovación en la redes basadas en Internet es mantener una Internet "abierta". Desde este punto de vista, la inteligencia en los extremos de las redes basadas en Internet debe ser preservada y propietarios de la red no se debe permitir que interfieran con dicho objetivo. Otros argumentan que la neutralidad de red (1) "garantiza" que la discriminación no pueda ocurrir en el futuro y, por tanto, estimula la inversión en el desarrollo de aplicaciones de banda ancha y (2) promueve una justa forma de competencia darwiniana entre aplicaciones, con los que salen como los supervivientes debido a su éxito frente al usuario final, en lugar de a las interferencias o parcialidad de proveedores de red.

En suma, las dos preocupaciones centrales de los que proponen la neutralidad de red son:

• Gran parte de los usuarios en loe EEUU no tienen – ni tendrán en un futuro próximo – adecuadas opciones de servicios de banda ancha o plataformas que compitan (el cable y las redes de telecomunicaciones “controlan” el 98% del mercado de banda ancha, y solo la mitad de los usuarios puede escoger entre una u otra plataforma)
• Dada la naturaleza duopólica de la competencia en el mercado de banda ancha norteamericano, los operadores de red (particularmente las compañías de cable) pueden usar restricciones contractuales y diseños de red para favorecer el desarrollo de aplicaciones uno-a-muchos con el objetivo de realizar discriminación de precios y las metas de gestión de la banda ancha. El gran temor es que, sin una política de neutralidad de red, pueden existir “restricciones a nuevas e innovativas aplicaciones que los operadores de redes de banda ancha vean como poco importantes, amenazas competitivas o una oportunidad de captar dinero.

4.2.2 Argumentos en contra

Las opiniones en contra a la neutralidad de red contrastan fuertemente con la visión democrática de Internet de sus proponentes. Los detractores apuntan a la eficiencia y desincentivos sobre las inversiones. En efecto, los opositores sostienen, la teoría de "el bit es un bit " trata a ver todos los paquetes de información exactamente de la misma forma, independientemente de la urgencia o inmediatez que atribuye a su transmisión. Dado que el valor económico de determinadas transmisiones (como voz y vídeo) puede ser superior (requieren simultaneidad y calidad), o que otros pueden requerir transmisiones prioritarias habida cuenta de su urgencia, la neutralidad de red haría imposible concebir la fijación de precios y normas de calidad de servicio que hagan un uso más eficiente de ancho de banda disponible. En el proceso, los opositores de la neutralidad alegan, los proveedores de red de banda ancha se encuentran mal equipados para hacer frente a los enormes gastos a fondo perdido de la construcción de sus redes y, posiblemente, elegirán aplazar o incluso cancelar las inversiones previstas.

Los opositores también señalan diversos beneficios de la no aplicación de la neutralidad de red como un principio rector en virtud de la convergencia. Primero, ellos predicen que permitir la integración vertical de los operadores de red con proveedores de aplicaciones o contenidos puede producir la diferenciación de productos y diversidad de red en beneficio de los usuarios finales. En segundo lugar, el fomento de la diversidad de red puede mitigar las tendencias hacia la concentración en el suministro de conectividad de última milla que el exceso de normalización puede traer (como podría suceder si no se permite ningún tipo de discriminación de precio o calidad). En tercer lugar, si la red sigue siendo sujeta de congestión incluso en la convergencia, luego de prioridades (en la forma, por ejemplo, de fijación de precios diferenciados) puede hacerse un uso más eficiente de la capacidad existente y proporcionar adecuadas señales de precios para orientar tanto el consumo como las inversiones futuras. Finalmente, muchas formas de comunicación generan externalidades “de llamada”, por ejemplo, ocurren en “mercados con dos caras” . En estas circunstancias es más eficiente hacer que ambas partes paguen para ayudar a recuperar los costos hundidos, en lugar de que lo haga solo una de las partes.

En suma, las dos preocupaciones centrales de los contrarios a la neutralidad de red son:

• La neutralidad de red seguirá determinadas líneas hacia el acceso abierto y la no discriminación que caracterizan la regulación de las RTPC actual. Esto amortigua la eficiencia y los incentivos a la inversión para los proveedores de red de banda ancha, y retrasa la aparición de alternativas de soluciones última milla.
• Como la convergencia progresa, la mayoría de las formas de las comunicaciones se llevará a cabo en mercados de dos caras o multi caras. Esta perspectiva presenta varias opciones para la recuperación eficiente de los costos de construir redes convergentes o redes de próxima generación. La neutralidad de red lesiona, no ayuda, los esfuerzos para seguir desarrollando estos complejos mercados, y priva a los usuarios finales de muchas de las promesas de convergencia.

4.2.3 Estado actual del debate

En los EE.UU., el debate sobre la neutralidad de red ha entrado en la fase legislativa. El congreso se encuentra actualmente sorteando un camino de apasionadas defensas de ambas partes. Este reciente debate fue suscitado, en parte, por la publicación de una declaración de política de la FCC. En esta declaración, la FCC se enuncia cuatro principios con el fin de "fomentar la implantación de la banda ancha y preservar y promover la apertura y la interconexión de Internet." De acuerdo con estos principios, los consumidores tienen derecho a:

• El acceso a Internet de contenido de su elección.
• Ejecutar aplicaciones y utilizar los servicios de su elección, con sujeción a las necesidades de la aplicación de la ley.
• Conectar dispositivos legales de su elección de que no dañen a la red
• La competencia entre los operadores de red, aplicaciones y contenido

Esta es la descripción más clara hasta la fecha expedida por un organismo regulador sobre la forma de lo que vendrá en virtud de la convergencia. Pone a los usuarios finales a cargo de su destino de ser capaz de sacar el máximo provecho de la "red tonta – dispositivo inteligente" y la configuración de la competencia que existe (o se desarrolla) entre proveedores de redes, aplicación o proveedores de servicios y los proveedores de contenidos. En términos del modelo política de las capas verticales, es como si cada una de las cuatro capas de experiencias complementarias de competencia para servir al usuario final y se añade otro grado de libertad al usuario final: la elección (¿Cual proveedor de contenidos debería ser la fuente? ¿Que proveedor de aplicaciones ser el proveedor de contenidos y servicios? ¿Cual proveedor de servicios de red deberán llevar los contenidos y servicios para el usuario final?) En este esquema, la última milla no es una cuestión de preocupación política, y hay un requerimiento de un acceso abierto obligatorio a nivel de la red, es decir, la capa física. Pero, si el acceso a la red por el usuario final o, más importante aún, el acceso al usuario final a través de la red de acogida no es un problema, entonces ¿qué pasa con la apertura dentro y entre las otras capas? En otras palabras, ¿cuan abierta puede o debe ser la Internet?

Es difícil construir el consenso en torno a alguna de estas preguntas. Conforme avanza el debate y las posiciones se endurezcan, dos facetas de la neutralidad de red se destacan. En primer lugar, en el corazón mismo de la cuestión es la realidad actual: ¿realmente los usuarios finales están merced de un mercado duopolístico de banda ancha (como sostienen los proponentes de la neutralidad de red) o la competencia intermodal es lo suficientemente fuerte como para poner a los usuarios finales en el asiento del conductor (como sostienen los opositores)? Es evidente que, en tanto el mundo de la convergencia parezca visto de lejos por el mercado, menor será la necesidad de imponer el requisito de neutralidad de red a proveedores de red.

En segundo lugar, ¿Están la eficiencia y los incentivos a la inversión mejor conservados en un régimen de neutralidad de red o en su ausencia? ¿El mantenimiento del acceso abierto y la no discriminación son requisitos mejores o peores para los incentivos? Las respuestas a estas preguntas están necesariamente vinculadas al estado de la competencia entre plataformas y la libre elección de los usuarios finales. Cuando la competencia entre plataformas se produce y los usuarios finales tienen en tiempo real la elección tanto de contenido/servicio y proveedor de servicios de red, el acceso abierto y la no discriminación serán requisitos innecesarios y, más importante aún, contrarios a la eficiencia dinámica.

Es comprensible que estas preguntas acerca de la neutralidad de red que hoy persistan porque las partes afectadas tienen un abierto desacuerdo sobre un tema central - ¿cuánto de convergencia se ha producido hasta ahora? Sin embargo, algunos de los grupos de presión están en el Congreso de los EE.UU., las partes parecen estar menos interesados en determinar si hay mérito objetivo económico a la neutralidad de red en las circunstancias actuales y más interesados en las ventajas que puedan obtener a través del legislativo (es decir, la formulación de políticas), en lugar de a través de pruebas de mercado.

4.3 Video franquicias

Junto a la neutralidad de red, las empresas de telecomunicaciones y de cable en los EE.UU. también están inmersas en un serio debate sobre la política de oponerse unos a otros en este caso sobre la cuestión de la franquicia local de video para portadores de telecomunicaciones que deseen ofrecer servicios de vídeo. Para comprender la génesis de este debate, es necesario en primer lugar revisar la historia de la televisión por cable en los EE.UU. y el cable de franquicia, en particular.

4.3.1 El contexto histórico

Históricamente, las señales de televisión solía ser transmitido por aire utilizando las antenas instaladas en las colinas. Sin embargo, los sistemas de cable tuvieron que ser instalados para llevar señales de televisión a los usuarios finales ubicados en valles y otros lugares que no estaban en la "línea de vista" entre antenas. Estas compañías de cable se convirtieron en portadores de último recurso y, por lo general, sólo funcionaban unos pocos canales para minimizar los costos de las redes. Inicialmente, la FCC se abstuvo de regular las empresas de cable dado que su funcionamiento y ofertas de servicios eran limitados, y que no tenían muchos clientes. Sin embargo, a medida que comenzaron a transmitir señales de televisión en distancias más largas y su popularidad creció rápidamente, las compañías de cable han emergido como una amenaza competitiva para la televisión tradicional en el aire.

La radiodifusión por aire comenzó como monopolio de las franquicias con imposiciones regulatorias relativas a la implementación y contenido. En 1962, cuando la televisión por cable se convirtió en una seria alternativa competitiva para la radiodifusión por aire, la FCC empezó a abordar las preocupaciones sobre un terreno de juego nivelado para la regulación de empresas de cable. En 1972, después de llevar a cabo diversas medidas regulatorias, la FCC introdujo la regulación que requieren las empresas de cable para llevar las señales emitidas desde las estaciones locales, restringiendo su capacidad de importación de señales, y se requieren canales que se asignarán al accedo público, educativo, del gobierno. Si bien algunas de estas medidas reguladoras federales fueron posteriormente canceladas, las compañías de cable siguen siendo sujetos a la franquicia de las autoridades municipales locales. En virtud de las franquicias, las autoridades locales podrían requerir a una compañía de cable que pagar los honorarios de franquicia (hasta el 5 por ciento de sus ingresos brutos de "servicio de cable"). Además, en la Ley Federal Cable las autoridades municipales recibieron el derecho a exigir que las empresas de cable establezca aparte los canales públicos, educativos, y el gobierno. En 1992, la enmienda a la Ley de Cable dio a los municipios más autoridad para imponer el servicio al cliente y los requisitos de protección del consumidor a las compañías de cable. Aunque la Ley de modificación de cable no permite a los municipios regular la programación específica por cable (contenido), todavía tienen libertad para imponer las normas de la comunidad en grandes categorías de programas y servicios y exigen que algunos programas se proporcionen en los canales designados. Típicamente, los los acuerdos municipales de franquicia con empresas de cable tienden a ser contratos a largo plazo, a menudo cubren un período de 7-10 años.

Hasta hace poco, los operadores de telecomunicaciones estuvieron prohibidos de ofrecer el servicio de cable en sus áreas de concesión. La justificación económica de esta medida era por lo menos de dos formas. Primero, los hacedores de política creyeron que las compañías de cable fueron monopolios naturales, lo que hace ineficaz cualquier competencia y, por tanto, indeseable. En segundo lugar, el temor de los encargados de formular políticas de que los operadores de telecomunicaciones establecerían subsidios cruzados en favor del servicio de video (en competencia) con los ingresos de los servicios de telefonía (monopólicos). De este modo, la razón de ser de mantenimiento de telecomunicaciones fuera del mercado de vídeo se basa al menos en parte, al deseo de los hacedores de política de mantener lo que ellos creían eran los monopolios naturales. En otras palabras, los políticos elegidos para lograr una estructura de mercado basada en la eficiencia asignativa, en lugar de la eficiencia dinámica.

Las barreras a la entrada para las telecomunicaciones en el mercado del vídeo se levantaron en 1996. Los operadores pueden ahora ofrecer servicios de vídeo en sus áreas de explotación, siempre que obtengan la franquicia municipal. En términos prácticos, esto significa que los operadores tienen que maniobrar a través de un complejo proceso de solicitud, que implica audiencias públicas, cabildeo, negociaciones de acuerdos de franquicia con el ayuntamiento o junta aprobación, audiencias adicionales para el acuerdo negociado de franquicia, la adopción del acuerdo final por el gobierno local, y el pago de presentación y aceptación tasas. Este proceso se repite en cada una de los aproximadamente 33,000 condados y municipios que actualmente otorgan franquicias de cable. Además, muchas compañías de cable han desafiado dichas solicitudes en los tribunales, colocando las cargas financieras sobre las empresas de telecomunicaciones que en la práctica retrasan su entrada en el mercado del vídeo. En consecuencia, la entrada del video en el mercado de telecomunicaciones es bastante limitado hasta la fecha. Las estimaciones son que, a partir de mediados-2005, sólo el 4 por ciento de los hogares de EE.UU. podía elegir a su proveedor de servicios de vídeo.

4.3.2 Las compañías de cable vs los operadores de telecomunicaciones

Habida cuenta de los beneficios previstos de que los operadores de telecomunicaciones ofrezcan servicios de vídeo a precio reducido ya sea a través de paquetes o ampliado las ofertas de servicios, no es de extrañar que la compañías de cable insistan en aplicar a las telecomunicaciones los mismos requisitos de franquicia que les son aplicables. Las empresas de telecomunicaciones están respondiendo, a su vez, con una demanda que señala que los requisitos de franquicia para ellos deben ser nacionales o regionales, pero no locales. Algunos están exigiendo que los requisitos de franquicia se supriman por completo. El Congreso de los EE.UU. está considerando actualmente una legislación que, ya sea instituya una franquicia nacional para las empresas de telecomunicaciones que ofrecen servicios de vídeo o elimine la franquicia exclusivamente para las necesidades de las empresas de telecomunicaciones y los competidores por esos servicios.

Las compañías de cable se oponen a normas nacionales para la franquicia argumentando que son más favorables que las normas locales que les son aplicables y disminuiría su capacidad de competir de manera equitativa. En lugar de ello, argumentan, la franquicia local de video no es un obstáculo a la entrada, y se tarda tan poco como 17 días para adquirir una franquicia. Además, las compañías de cable afirman que no han tenido exclusividad de las franquicias desde 1992, y que éstos se enfrentan a la competencia de proveedores de satélite, como DirecTV y EchoStar, así como empresas como RCN, Knology, y WideOpenWest. En vista de ello, las compañías de cable afirman que ya existe una competencia significativa en el mercado y que la promesa de que la entrada de las telecomunicaciones reduciría los precios no sería nada más que un mito.


4.3.3 La elección basada en la eficiencia: la abolición de la franquicia de video

La tendencia hacia la convergencia ha hecho imperativo que los operadores de telecomunicaciones ofrezcan servicio de video como parte de su estrategia triple play. De hecho, la entrada de las telecomunicaciones amplía la oferta en el mercado del vídeo y amplía el mercado relevante para incluir a todos los servicios de voz, datos y servicios de vídeo, es decir, la competencia ya no se produce por uno u otro servicio de forma aislada. En estas circunstancias, las telecomunicaciones han sentido la necesidad de instalar más capacidad de ancho de banda mediante la mejora de sus redes de cobre con fibra o incluso la instalación de redes de fibra superpuestas. En concreto, la oferta de vídeo por los operadores de telecomunicaciones (incluyendo IPTV) representan ahora un sustituto económicamente viable de la televisión por cable. Habida cuenta de estos acontecimientos, ¿sería una política adecuada el imponer normas a las telecomunicaciones apelando como justificación a consideraciones de eficiencia asignativa por sí sola, o hay otros factores en juego?

Si ni el cable ni las empresas de telecomunicaciones hoy son monopolios naturales, entonces la base histórica para las obligaciones de la franquicia local de video ya no existe. En efecto, si la eficiencia dinámica, en lugar de la asignativa debe ser el principio rector para la formulación de políticas en el mercado de servicios "triple play"-ya no sólo de voz o servicios de vídeo-entonces la política correcta debe ser fomentar la competencia entre compañías de cable y de telecomunicaciones (y otros proveedores de servicios triple play) mediante la eliminación de las restricciones operativas a la entrada como la franquicia de video. Esta iniciativa fortalecerá aún más la competencia interplataforma, beneficiará a los usuarios finales a través de precios más bajos y una mayor variedad de servicios, y optimizará la asignación de recursos en la prestación de servicios a través del tiempo. Por otra parte, debido a que la convergencia traslada un mayor control en manos de los usuarios finales y los dispositivos que ellos conectan a la red, las razones tradicionales extra-económicas para la franquicia local de video (como el suministro de canales separados para el público, educativo y del gobierno o el control de la comunidad sobre el contenido de vídeo) eventualmente desaparecen. Esto impulsará el levantamiento de todos los reglamentos de franquicias de video, y hará que el debate actual sobre las normas de franquicia que deben aplicarse a los operadores de telecomunicaciones.

Noticias de Europa

OECD - Information and Communications Policy

Creative Commons License
Esta obra está bajo una licencia de Creative Commons.
Powered By Blogger