25
Aprendizaje y cultura laboral entre los programadores de software en México J. GUADALUPE RODRÍGUEZ GUTIÉRREZ MESA 8

Aprendizaje y cultura laboral entre los …El titulo de la Obra de Karl Polanyi en 1944 “La gran transformación” planteo un nuevo estadio en las relaciones de producción y una

  • Upload
    others

  • View
    7

  • Download
    0

Embed Size (px)

Citation preview

Aprendizaje y cultura laboral entre los programadores de software en México

J. GUADALUPE RODRÍGUEZ GUTIÉRREZ

MESA 8

2

Introducción

La Sociología del trabajo esta en deuda con las nuevas formas de trabajo que se reconfiguran, conforman y redefinen en los albores del siglo XXI. No se puede negar la existencia de nuevos renglones tecnológicos que hace menos de dos décadas no existían, así como la presencia de trabajadores que operan símbolos, manipulan datos (Reich:1991); empleados que difieren de los obreros “fordistas taylorizados” done la gerencia les decía que hacer y como hacer las rutinas de trabajo a través de manuales preestablecidos, es decir, sólo había un solo camino “ one best way” del quehacer cotidiano en las actividades laborales; sin embargo, hoy los “trabajadores de cuello de silicio” procesan y generan información abstracta; por ejemplo, los operadores de portales informáticos de empresas e-commerce, los diseñadores de paginas web, los desarrolladores de software (en sus mas de 15 complejos procesos de software) entre otros, manipulan información que sólo ellos detentan, configuran y procesan acorde a decisiones personales.

Por ejemplo: el orden lógico de las líneas de código de un programa de software, el programador decide el camino para la configuración del programa, y es éste quien conoce el proceso cognitivo abstracto que le dio origen a las líneas de código; el diseñador de pizarras electrónicas en Internet e Intranet para la intercomunicación entre proveedores y clientes es el que conoce “lo que está atrás” de este complejo sistema informático, sin que la gerencia le pueda inhabilitar el “que hacer” y “como hacer” en la estructuración de los diversos módulos que dan cuerpo a la pizarra electrónica, a lo mucho, le solicita los manuales de uso, las especificaciones técnicas del proceso; sin embargo, donde está el centro de “conocimiento” es en la lógica cognitiva en que interoperan los módulos, proceso que sólo el diseñador detenta en su “saber hacer”. Palabras clave. Modelos de producción, Hardware, Software, Información, Conocimiento. I.- Los Modelos de Producción

Boyer y Frayssnet (1995), Sainsaulieu (1987), entre otros fundadores de la red GERPISA señala que un Modelo productivo “puede identificarse, dentro de los procesos de fabricación, como un conjunto de dispositivos y prácticas coherentes entre si y compatibles, en los ámbitos de la gestión, de la organización y de las tecnologías, que tiendan a reducir la doble incertidumbre del mercado y del trabajo. Estos modelos, a partir de unos determinados principios productivos, y bajo ciertas condiciones de posibilidad y viabilidad, pueden tomar cuerpo en distintas formaciones sociales, regionales o nacionales” (Castillo; 2006). Diversos investigadores como Castillo:1994 y 2006; De la Garza: 1999, 2001; Abramo y Montero (1995, 2001); entre otros; coinciden en señalar que en cada realidad productiva las combinaciones configuran formatos divergentes, sin un “denominador común”, tan sólo son la descripción simplificada de la realidad a través de niveles y categorías de abstracción que buscan explicar un hecho; hecho que es representado en una serie de conceptos que se circunscriben en un determinado contexto teórico.

3

Los estudios del trabajo en América Latina, están influenciados por un debate en torno a la explicación de la crisis del Modelo de Producción tradicional: Fordista –Taylorista y, la subsiguiente identificación de nuevos modelos, híbridos o con prefijos; éstos se explicarían a partir de aquellos elementos teóricos, epistemológicos y metodológicos en el que se encuentra inserto el investigador. Los modelos de producción ya sea posfordista, toyotista, lean production, sistemomanufactura, industrial governance, nuevos conceptos de producción, nuevas relaciones industriales, entre otros, privilegian aspectos diferentes de la realidad, pero coinciden en el eje teórico de la flexibilidad, la cual se plantea como inmanente a la actual fase capitalista (De la Garza: 1991, 1999, 2003).

De la Garza, señala dos problemas en las teorías de Modelos de Producción: a) consideran que el cambio social está ligado a las presiones del mercado global y, que ésta influencia estructural obliga al cambio de Modelo de Producción, sustentado éste en Flexibilidad con bilateralidad y consenso (De la Garza 1999:124-125), sin embargo no consideran que las “presiones estructurales” son interpretadas de distintas maneras por los actores sociales, donde las subjetividades culturales interactúan y construyen distintas estructuras; b) Es de índole epistemológico y metodológico, ya que confunden diagnóstico con normatividad. Es decir las investigaciones empíricas no son casos que cumplan con las definiciones mismas de Modelo de Producción, sino que se definen términos híbridos, prefijos o equivalencias que “demuestran” el desarrollo de X modelo; tal decisión cierra el camino ha decir que hay posibilidades de existencia de modelos no teorizados, o bien que se esta en un periodo de transición sin necesidad de especificar si se tiende a un “posfordismo consensuado” o, simplemente señalar que se esta en transito hacia otro modelo.

Este debate de los Modelos productivos está presente en las Tecnologías de la información y Comunicación (TIC), ya que el conocimiento, aprendizaje, innovación, capacidad de respuesta ágil de los trabajadores ante la incertidumbre que plantea el constante cambio que imponen las TIC, implica no sólo una mayor capacidad de respuesta de los trabajadores, sino una compleja red de relaciones entre la empresa y los trabajadores, es decir confianza y certidumbre en el capital humano con el que cuenta la empresa. Elementos que no están presentes en el Modelos de Producción Fordista-Taylorista. I.1.- La Sociedad de la Información y Comunicación: ¿involucra una transformación en los Modelos de Producción?

El titulo de la Obra de Karl Polanyi en 1944 “La gran transformación” planteo un nuevo estadio en las relaciones de producción y una nueva situación social, que para los 60 llevo a autores como Machlup (1962) y Bell (1962, 1964) a plantear un modelo de Sociedad posindustrial enmarcado en tres dinámicas: 1) El conocimiento podría convertirse en factor de producción; 2) La incertidumbre y las expectativas individuales son importantes. 3) El control del conocimiento transforma los procesos en la toma de decisiones. Ésta dinamicas contextualizo la denominada era de la información. Esta propuesta, no difiere mucho de la que se hace a fines de los noventa, donde se insiste en la conformación de un paradigma denominado Sociedad de la Información y Conocimiento (SIC), la cual Castells (1999) denomina Modelo dominante de la Sociedad de la información, sustentada en tres postulados:

4

1) preponderancia de las tecnologías de la información y comunicación en el sistema productivo; 2) Reestructuración de capitalismo, con una mayor globalización; 3) Nueva relación Estado-Sociedad a través de nuevas formas organizacionales, culturales, urbanas, etc. En esta propuesta el concepto clave es sociedad red-espacio-flujos y desarrollo infraestructural de Nuevas Tecnologías de la información y comunicación (TIC).

Es importante señalar que el planteamiento de un nuevo Modelo de Producción gira en torno a varios conceptos aún no acabados, entre los más citados son: Economía del Conocimiento, Sociedad del Conocimiento, Sociedad del Aprendizaje, conceptos que están entrecruzados por un eje longitudinal, que es el grado de articulación-red y convergencia entre actores institucionales (Gobierno-academia-empresas) así como las capacidades de innovación, aprendizajes, y desarrollo de nuevas habilidades.

Ahora bien, las discusiones en torno a la existencia o no de una Sociedad del conocimiento como parte de una Gran Transformación, escapa a los alcances de este ensayo, sñolo nos permite construir una serie de preguntas con respecto al posible estadio/conformación de un nuevo Modelo: ¿Existen condiciones para señalar la existencia o no de un nuevo Modelo de Producción?, y si es así, ¿Cuales son las características de este estadio del capitalismo?, ¿Existen nuevas relacione laborales, de producción, de organización, etc.?, ¿Estamos ante un nuevo ciclo tecnológico (Freeman y Pérez, 2002, Pérez, 2005)?, ¿El vector tecno-productivo está en el sector servicios y no en el manufacturero (Economía de Servicios)?, ¿Existe o no una reordenación y redefinición de las relaciones laborales, (Lesemann, 2005)?, ¿Estamos en presencia de una nuevo ciclo industrial cuyo eje Sector Electrónico-Informático? (Dabat, Rivera y Wilkie, 2004, Rivera, 2005)?.

Esta serie de interrogantes en torno a que si se está en presencia o no de un nuevo paradigma tecnológico sustentado en Nuevas Tecnologías de la Información y la Comunicación (Pérez, 2004), se acompaña de una serie de cambios cualitativos, como son el espacio virtual de la comunicación electrónica; empresas trasnacional tipo red, mayor competencia global, eslabonamientos productivos, globalización financiera, ciudades globales, redes sociopolíticas globales no gubernamentales, (Beck, 1998; Castells, 1996; Dabat y Rivera, 1995; Vázquez, 1999).

Cambios cualitativos que se expresan tanto en la revolución de las TIC, como en una reestructuración del modo de producción fordista-taylorista; así como en una convergencia entre sectores antes divergentes: Política, Economía y Sociedad, embebidos estos cambios en las instituciones del capitalismo (Rivera, 2005, Dabat, 2002, Castell, 1999). Así como en el reconocimiento de nuevas formas de organización del trabajo, destacando la integración de estructuras en todos los niveles: producción (Dabat y Ordoñez, 2004), circulación financiera (Pérez, 2004), conocimiento tácito y codificado (Lundvall, 2002; David y Foray, 2002; Nonaka y Takeuchi, 1999), aprendizaje continuo, (Villavicencio, 2003, Tecce, 1997), etc.

5

1.2.- Modelos de Producción Ágil: ¿Respuesta al paradigma que imponen TIC/SIC?

Existe un conjunto de investigadores Europeos y Norteamericanos, como Goldman y Nagel, 1993; Burgess, 1994; Goldman et al., 1995; Montgomery y Levine, 1996; Fliedner y Vokurka, 1997; Gunasekaran, 1998, 1999; Goranson, 1999; Yusuf et al., 1999; Sharifi y Zhang, 1999, 2001; Meade y Sarkis, 1999; Sharp et al., 1999; Dove, 2001; Sánchez y Nagi, 2001; Gunasekaran y Yusuf, 2002; Gunasekaran et al., 2002; entre otros que plantean que se está en presencia de un Modelo de producción Ágil1 (agile manufacturing) cuya filosofía plantea un nuevo posicionamiento estratégico en fabricación y exige una visión global en la empresa (Roth, 1996, citado por Vásquez y Avella, 2005).

El Modelo de producción ágil, según estos autores rompe con las directrices del tradicional modelo de producción en masa y se diferencia del Modelo Flexible, producción Ajustada, y personalización en masa; se pone especial énfasis en la adaptación proactiva al cambio (Yusuf et al., 1999, citados por Conboy y Fitzgerald: 2004). Según Kidd (1995, citado por Vásquez y Avella: 2005).

La fabricación ágil se puede considerar una estructura dentro de la cual cada organización puede desarrollar sus propias estrategias de negocio y productos, debe ser vista como un concepto de negocio que aglutina un cúmulo de ideas, donde dicha estructura está apoyada en tres recursos fundamentales: a) una organización y estructura de gestión innovadora comunicada en tiempo real a través de la red, b) una base de trabajadores altamente formados y con poder de decisión, y c) tecnologías flexibles e inteligentes.

La agilidad se logra integrando esos tres recursos en un sistema interdependiente y coordinado. Por esta razón, la fabricación ágil puede considerarse que es la integración organizativa de trabajadores altamente formados y motivados y tecnologías avanzadas de información y conocimiento, con el objetivo de lograr la cooperación y la innovación como respuesta a la necesidad de proveer a los clientes productos personalizados de elevada calidad a través de redes virtuales (Intranet, Internet, e-comerce etc.).

Para Goldman et al. (1995) la agilidad es una respuesta global a los cambios impuestos por un nuevo entorno de negocio dominado por un conjunto de fuerzas que atentan contra los sistemas de producción en masa y que se rigen por el cambio y la incertidumbre. Además, la agilidad se caracteriza por ser dinámica, específica a su contexto, orientada al crecimiento y agresiva ante el cambio. Estos autores identifican cuatro dimensiones de la competencia ágil: a) enriquecimiento del cliente, b) cooperar para lograr competitividad, c) organizarse para gestionar el cambio y d) potenciar el impacto de las personas y la información.

A principios de este siglo, la propuesta de modelo ágil incorporado en el Desarrollo de Software, fue desarrollada por Sctott Ambler (2002) y otros autores (Breu et. al. 2001; Christopher: 2000; Cockburn: 2002), hipotéticamente

1 El concepto de fabricación ágil fue introducido por Goldman S.L. y Nagel R.N. en 1991, en el informe “21st. Century Manufacturing entreprise Strategy” presentado Iacoca Institute en Lehigt University, Bethlehem, citado en Avella C.L. y Vásquez B.D. 2005, ¿Es la fabricación ágil un nuevo modelo de producción?, en Universia Business Review, 2005.

6

consideramos que esta método ágil surge por tres principales razones: 1.- Alto nivel de estándares burocráticos que implican las herramientas CASE (Desarrollo de Software Asistido por Computadora, por sus siglas en ingles), las metodologías de calidad CMM (Modelo de Capacidad de madurez de la empresas desarrolladoras de Software, por sus siglas en Ingles); Las librerías de Infraestructura de tecnologías de la información (ITIL, desarrollada en 1980 por el Gobierno Británico, pero en los últimos años a cobrado presencia en al industria del Software), entre otras metodologías y herramientas propuestas por la Ingeniería del Software. 2.- La Industria del Software se caracteriza por pequeñas y medianas empresas, con un número menor a 20 programadores. Es decir, que las propuestas de la Ingeniería del Software (CMM, CASE, ITIL, etc.) corresponde para empresas de software grandes, para proyectos complejos, para multi equipos de trabajo, etc. Implementar éstas herramientas y proceso es caro, y no tiene un impacto real en el proceso de trabajo de los programadores. 3.- El proceso de trabajo del programador de software sigue estando impregnado de una alta incertidumbre en los procesos, es decir, el número de errores adherentes al desarrollo de líneas de código es una constante que no ha sido superada por la ingeniería del Software. En otras palabras, a más de 30 años de las primeras implementaciones metodológicas para disminuir los errores en el código y los “malos hábitos” en la programación (no documentación del proceso de codificación) no se ha superado del todo la etapa denominada “Desarrollo artesanal del Software”.

Ahora bien, en esta industria, el conocimiento formal, el aprendizaje a través de la experiencia; habilidades personales (Capacidad de abstracción cognitiva), son factores claves para un desarrollo efectivo del programa, para explorar rutas optimas de codificación, para formalizar problemas complejos a través de algoritmos; capacidades que le son propias no sólo al programador, sino que se encuentran presentes en el nuevo paradigma de la denominada Sociedad del Información y Conocimiento.

7

2.- Las polidemensiones de la Sociedad de la Información y el Conocimiento (SIC)

Corona y Jasso (2005:13-27), basándose en David y Foray (2002, 2003), Gibons (1994), Pérez (2004) entre otros, sintetizan en siete las dimensiones que caracterizan la SIC:

1.- Conocimiento, saber e información: aspectos tácito y codificado. Esta dimensión establece las diferencias entre conocimiento científico, técnico y empírico; saber y conocer; información y conocimiento; habilidades, experiencias, destrezas, aprendizajes; estas capacidades de crear, transformar, transmitir, codificar el conocimiento tangible e intangible están impregnadas de interacciones sociales y subjetivas entre los actores sociales e institucionales, en diferentes escalas macro, meso, micro, redes, etc. La decisión de participación de los actores en los flujos de interacción pone en juego relaciones de poder, sentimientos, valores, emociones, destrezas, cooperación, etc. que están función de los intereses de los actores que construyen dichas interacciones sociales.

2.- La innovación como actividad predominante del conocimiento. Los trabajos de Kondratiev y Schumpeter nos señalan que los ciclos económicos son influenciados por innovaciones cada 50 años, sin embargo, en la denominada Sociedad del Conocimiento el ciclo es más corto, más frecuente, debido: a) Relación estrecha entre ciencia, producción y mercado; b) mayor acceso a la información y al conocimiento; c) Existencia de redes de conocimiento. Aceleración en los ritmos de innovación, acto que no es aislado; Pierre Levy (1999) señala que es el conjunto de capacidades cognitivas de percibir, recordar, aprender, razonar, las cuales involucran un contingente colectivo y social, ya que no pensamos solos, sino que es a través de comunidades que se innova.

3. El Aprendizaje como medio de acumulación y difusión de conocimientos. El aprendizaje no es un asunto solamente cognitivo, también es el resultado de la interacción social. El aprendizaje contiene componentes polidimensionales como razonamiento científico con el cotidiano, sentidos prácticos con componentes culturales, sentimentales y estéticos; es decir, el aprendizaje también debe verse como una forma específica de construcción del sentido dependiente de culturas, estructuras y sujetos que intervienen. Por ejemplo, el modelo “experto-aprendiz” el joven va aprehendiendo el “como hacer” a través de un proceso de escuchar, imitar y ver; otro ejemplo, son los flujos de información intangible, interpersonales entre miembros de una misma profesión o gremio. En estas interacciones los vínculos sociales, organización, talento personal, experiencias, capacidad de desaprender, creatividad, imaginación, etc. son más importantes que las capacidades técnicas o materiales.

8

4. Diversidad regional/sectorial y acceso a las tecnologías. El desigual desarrollo de TIC agudiza aquel viejo concepto cepalino de Brecha tecnológica, que hoy solo cambia de apellido a Brecha digital2, según Druetta (2004:18), está enmarcada por cinco aspectos:

• Tecnológica, referida a la infraestructura material disponible así como el

grado de actualización de dicha infraestructura. • De Conocimiento, vinculada a las habilidades y sabes que deben poseer los

individuos para apropiarse adecuadamente de los nuevos medios y de las tecnologías de la información y comunicación.

• De Información, dimensión en la que es posible distinguir dos sectores sociales: uno sobre informado, con acceso a diferentes medios y generaciones tecnológicas; y otro desinformado, con acceso limitado a las innovaciones tecnológicas, sus actualizaciones y sus contenidos.

• Económica, por falta de recursos para acceder a las tecnologías de la información y comunicación que se manifiesta tanto a nivel personal, como entre los sectores gubernamentales y algunos privados.

• De participación, los recursos aportados por las innovaciones tecnológicas puedan emplearse en un contexto democrático, con un marco legal y social adecuado, que permita a los individuos y a las naciones igualdad de oportunidades para expresarse e intervenir en las decisiones de un mundo global.

Estos aspectos, están profundamente interrelacionadas, nos remiten a señalar

que los gobiernos, empresas e instituciones en su conjunto, deben establecer estrategias claras de cómo y que hacer para dotar a los actores sociales, de capacidades cognitivas que les permita incursionar en la lógica de las TIC; lógica que es compleja, en la cual no basta el contar con infraestructura tecnológica o capacidad de integración a los flujos internacionales de comunicaciones e información o formar parte de las cadenas de producción global, como señalan los apologistas de los organismos internacionales.

5.- Redes, alianzas y fusiones entre los actores sociales: importancia de las empresas red. El aprendizaje, experiencia, habilidades, conocimientos, etc., individuales y colectivos se generan en ambientes polidimensionales formales e informales, no burocráticas sino dinámicas; por ejemplo las fusiones y adquisiciones, redes virtuales y reales de cooperación científicas, tecnológicas, académicas, de ocio, etc.; donde el objetivo no solo es la innovación, sino cooperación para desarrollar nuevos conocimientos, que individualmente es imposible de realizar; por ejemplo los programas en software libre, desarrollados a través de comunidades virtuales, que pueden estar integradas por redes de actores institucionales, gubernamentales, académicos, profesionistas, jóvenes 2 véase el portal de la Cumbre mundial sobre la Sociedad de la información. Ginebra 2003, Túnez 2005 http://www.itu.int/wsis/documents/background.asp?lang=es&theme=dd (7 Julio 2005), además véanse la Declaración de Principios de la Cumbre Mundial sobre la Sociedad de la Información (2003); Conferencia Ministerial preparatoria de América Latina para la Cumbre Mundial sobre la Sociedad de la Información (2003), Agenda de Conectividad para las Américas (2001), Villatoro Pablo y A. Silva (2005), Estrategias, programas y experiencias de superación de la brecha digital y universalización del acceso a las nuevas tecnologías de información y comunicación (TIC). División de Desarrollo Social políticas sociales, numero 101, Santiago de Chile, febrero del 2005. http://www.eclac.cl/publicaciones/DesarrolloSocial/8/LCL2238PE/sps101_lcl2238.pdf

9

independientes, etc.; éstas comunidades virtuales o concretas –que pueden ser públicas, semipúblicas o libres- son flexibles, ágiles, adaptables, maleables, presuponen identidad de intereses, en ellas la información y el conocimientos se considera bienes colectivos; éstas redes virtuales pueden ser temporales, sin jerarquías claras, con confianza y respeto, con negociación explícita aunque no necesariamente formalizada; son disposiciones en las cuales la información y conocimiento se potencializa más allá de las bondades de un mercado de oferta y demanda del conocimiento. El software libre es un ejemplo de la “cultura del hacker” (Hiamanem y Stellamn: 2004) que representa relaciones interculturales “sin fines de lucro”, flexibilidad en acceso a información y conocimiento con alta tasa de innovación.

6. Organización empresarial flexible. La mayor disposición y circulación de información y conocimiento es multidimensional, horizontal, vertical, diversa, heterogénea, que rompe con las estructuras rígidas, verticales y burocráticas del fordismo-taylorista. El denominado paradigma tecnoeconómico y tecnológico del siglo XXI, exige flexibilidad en la generación de información útil, aplicable, y de ejecución no burocrática.

7. Riesgo y financiamiento de la innovación. C. Pérez (2004), en el libro “revoluciones tecnológicas y capital financiero” señala como los capitales financieros atienden el proceso de innovaciones que le suceden al ciclo “destrucción creativa”. Una de las primeras crisis que no ha sido abordada lo suficiente, es la crisis de empresa punto.com en el periodo 2000-2001 que cerraron cientos de empresas, según un estudio de Challenger Gray Research, en el primer trimestre de 2001 las punto.com norteamericanas despidieron 35,000 trabajadores, un 12% más que en el año 2000. Otras empresas consolidadas, ajustaron su plantilla laboral 7,000 en Motorota, 10,000 en Nortel, 5,000 en Compaq e Intel, 1,700 en Dell, 1.200 en 3Com.

Estas dimensiones nos permiten tan solo señalar de manera muy agregada las aristas que hay que desentrañar y analizar de este paradigma tecnológico y tecnoeconómico denominado Sociedad del Conocimiento, donde las relaciones cuantitativas entre desarrollo de las TIC, productividad y crecimiento no son claras; así mismo los aspectos cualitativos en relación a las interfases entre ciencia, innovación, aprendizajes, conocimientos, habilidades no son convincentes.

También señalamos que la organización y el conjunto de relaciones en red entre actores, llámense empresas, gobierno, academia, trabajadores, etc. tampoco está claro el como se constituyen los mecanismos mediante los cuales operan los flujos de información; motivo por los cuales, señalamos que existe un reto para la Sociología del trabajo, en establecer estrategias de análisis, marcos analíticos que den cuenta del como y del porque el trinomio: información/conocimiento/aprendizaje funciona o no como “carburante” de este nuevo paradigma; si existe o no una organización empresarial y laboral flexible constituidas en redes o bien; como se conforma la gestión y dinámica de la innovación que se requiere y cuales son las formas que caracterizan las “nuevas relaciones sociales de producción” en el proceso de trabajo, la organización en la producción y control, poder y consentimiento en la esfera productiva.

10

2.1.- Características generales del trabajo en la Sociedad del Conocimiento

Mucho antes del boom de Internet, de empresas puntocom, de comercio electrónico y todas sus combinaciones; de la preponderancia de la información, del conocimiento codificado, del aprendizaje tácito, de las habilidades y destrezas de los actores en el proceso de trabajo, éstas ya se constituían como factores competitivos del proceso de producción, es decir antes que el desarrollo de los microchips, nanotecnología, acceso inalámbrico a la información, etc.; ya los conocimientos tangibles e intangibles del trabajador formaban parte de su cotidianeidad en el proceso de trabajo, sus capacidades cognitivas de abstracción teórica y pragmática ya constituían un ingrediente de su quehacer.

Lo novedoso en la Sociedad del Conocimiento es la rapidez del cambio técnico, la obsolescencia de productos, la incertidumbre en el futuro de procesos y productos, la llegada de nuevos empleos que hace poco más de 15 años no existían; por ejemplo los programadores de software, diseñadores y administradores de páginas web, diseñador digital para comercio electrónico, operador de redes, asesor en TIC, asesor en medios multimedia, ingeniero informático, ingeniero en ciencias computacionales, administradores de bases de datos, etc. etc. (OIT, 2001) profesiones que implican cualificaciones formales muy diversas, desde aquellas con maestría y doctorado, hasta los niveles técnicos.

Sin embargo, en relación a los conocimientos no formales, como la capacidad de aprehender, resolver problemas y gestionar soluciones, trabajo en equipo, etc. etc. son capacidades y habilidades mas relacionadas con competencias personales, donde la cultura, la habilidad y destrezas cognitivas personales combinadas con intereses y relaciones de poder así como capacidad de negociación y liderazgo en un equipo de trabajo son factores importantes. Hasta el momento no existe una estadística seria sobre las nuevas formas de empleo generadas por el sector de las tecnologías de la información y la comunicación, así como las cualificaciones formales necesarias, sin embargo si se reconoce la importancia de estas nuevas formas de trabajo y el conjunto de habilidades personales. 3. Brecha histórica entre Hardware y Software

El paradigma que impone la Sociedad del conocimiento, tiene como corolario el desarrollo de nuevos renglones tecnológicos (Internet, Internet 2, comercio electrónico, manufactura digital, etc.) sustentados éstos a su vez en dos grandes columnas infraestructurales: a) Hardware -parte física- y b) Software3 -parte intangible-.

El desarrollo de la tecnología infraestructural del hardware, ha sido acompañado de dos hechos importantes, por un lado la creciente potencialización en la capacidad técnica de procesamiento de información, miniaturización de componentes, estandarización en la manufactura, homologación de protocolos en el sistema operativo a través de microchips estándar, mayor capacidad de

3 El software, es un componente simbólico, es un lenguaje de programación lógico, es maleable (en el sentido de su modificación a través de la manipulación de los códigos bases, lo cual requiere un alto grado de conocimiento), no posee identidad fija o estable, no se ha definido si es “producto” o “servicio”.

11

almacenamiento y procesamiento de información, intercomunicabilidad entre redes de hardware, etc. e inversamente el costo de acceso a esta tecnología ha disminuido considerablemente. Por su parte el Software se ha constituido como una tecnología infraestructural “tardía”, constituyéndose como parte intangible, inmaterial del hardware; la cual hace posible las diferentes operaciones que se realizan en las computadoras, servidores de red, administradores de manufactura, etc,; industria que presenta síntomas de rigidez ante un proceso de estandarización y disminución en los costos. Rigidez que se presenta como una brecha entre el desarrollo del Hardware y el Software (ver Figura 1).

Figura 1

Elaboración propia en base a Pressman: 2002

En los últimos 30 años se ha originado un crecimiento exponencial en sistemas de hardware, en tanto que Software apenas si creció aritméticamente, lo cual genero una brecha que implica, que hoy en día existan sistemas informáticos de hardware muy potentes, los cuales posen un gran porcentaje de “capacidad ociosa instalada” debido a que no existe un software igual de potente que maximice su uso, para 1999 la brecha en el mercado mundial era 29% para Software y 71% para Hardware (Pressman 2002). 3.1- Incertidumbre en el proceso de trabajo del Programador de Software

Si bien es cierto el proceso de trabajo el programador de Software se divide básicamente en tres etapas:1) Definición: objetivos precisos, es decir lo que tiene que hacer el programa. (Análisis del sistema; Planificación del proyecto de software; Análisis de requisitos); 2) Desarrollo: proceso del programa (Diseño del software; Codificación; Prueba del software); 3) Mantenimiento: modificación del programa. Corregir errores, nuevas definiciones, tareas y desarrollos que darán lugar a nuevas versiones (Corrección; Adaptación; Mejora). Lo característico de la industria del Software es que contempla problemas que el hardware no posee, por ejemplo, existen problemas para su mantenimiento ya que son escasos los

Programadores del tipo “artesanal”

Ingenieros de Software

2000-¿?

Hardware

Software Libre (Open Source)

Software Propietario

1970 - 1980 -1940-

Tiempo

Capacidad Brecha entre un crecimiento exponencial del Hardware y un crecimiento aritmético y deficiente de poca calidad del Software

12

programas de software que cuentan con manuales de desarrollo (metodologías y métricas que den cuenta de las tres etapas señaladas), manuales que son trascendental para su mantenimiento y actualización.

Los profesionales de Software son señalados como “artesanos” ya que no realizan metodologías concretas, métricas de calidad eficiente, etc. ya que la codificación se basa en el aprendizaje acumulado, en capacidad y habilidades cognitivas del programador, Pressman (2001) señala que existe una falta de cultura de “codificar” el “Cómo se hace” y “Que se hace” en manuales técnicos, ya que no se implementan metodologías estrictas de calidad; (McClure:1993, Mark y Rugby;1994), lo cual significa una serie de errores y fallos en el proceso de trabajo, errores o bugs que la Ingeniería del Software (ciencia con menos de 15 años de existencia) traduce en incumplimientos de requisitos, falla en la entrega a tiempo, falta de eficiencia y productividad en los equipos de programadores, etc.; conllevando ello un conjunto de ineficiencias e incertidumbres que ha sido denominado en el argot de programación como “crisis del software” (Pressman:2002, Glass, R.L.: 1997; Flowers S.: 1997; Yourdon E.,: 1998). Sin embargo, es ineludible hablar de un desarrollo del Software que ha tenido éxito, si bien existen muchos fallos importantes en medio de muchos éxitos.

Ya desde fines los 60 se cuestionaba la calidad del Software, en 1968 (Garmisch, Italia) y 1969 (Roma, Italia) se realizaron dos coloquios internacionales para abordar los problemas del Software, que básicamente son los mismos de hoy en día: retrasos en los plazos de entrega, mayores costos a los estimados inicialmente, gran cantidad de fallas y defectos. El contexto en el cual debe analizarse los errores y fallos del Software debe comprender fases como eficiencia algorítmica, estructuración de proceso y datos, capacidad de abstracción cognitiva por parte del programador para comprender los problemas del cliente y traducirlos en términos formales lógico-matemáticos y diseñar-codificar algoritmos que den por resultado una línea de código correcto (Schoen:1992, http:/www.ics.uci.edu).

A finales de los 70 y principios de los 80, el esfuerzo gastado en el mantenimiento del software comenzó a absorber recursos alarmantes. Muchos programas eran imposibles de mantener por su personalización “a la medida”, de tal manera que la “crisis del software” alude a un conjunto de problemas que aparecen en el desarrollo del software que no funciona correctamente. El mal abarca a los problemas asociados al proceso de trabajo en el desarrollo de software de las últimas décadas. Muchas aplicaciones de sistemas de información escritas hace más de 30 años, es imposible darles mantenimiento, ya que fueron hechos a la medida y se utilizan para generar datos críticos de diseño y, no existen manuales de codificación, por tal motivo no se les puede dar mantenimiento.

Para los noventa, la industria del Software, entra en una encrucijada contradictoria, por un lado la “caja negra” del software propietario entra en crisis ya que no solo se desconocen las metodologías por medio de las cuales fueron escritas las líneas de código, por el otro lado, no se tiene acceso al código fuente y, al no poder acceder al código fuente, no se puede reutilizar código en problemas similares, restricción que significa repetir errores de programación, incrementar los costos, nulo mantenimiento y actualización, así como una rigidez al desarrollo de

13

software más potente (Entrevista realizada al Dr. Guillermo Licea y M.C. Armando Ayala).

Por ejemplo, tan sólo el mantenimiento es un problema que puede llegar a suponer un costo superior al 60% del total del coste del software. Paralelamente, se están desarrollando nuevas metodologías que suponen un enfoque integral del problema, que propone superar la “etapa irregular” y de “organización caótica” que acontece en la industria del software; con el fin de reducir costes de programación y plazos de desarrollo, así como la calidad del producto final. Para ello, la Ingeniería del Software desarrolla toda una serie de metodologías y métricas que propone se definan como "el tratamiento sistemático de todas las fases del ciclo de vida del software". Hay otras definiciones, pero todas inciden en la importancia de una disciplina de ingeniería para el desarrollo de software. Sin embargo, cabe señalar que en más de 20 entrevistas exploratorias realizadas entre Junio de 2005 y Abril de 2006, han coincido en que:

“…los errores en programación…seguirán existiendo...porque es algo humano…no hay metodología que sistematice el proceso, entonces a falta de sistematización, pues los errores van ha ser muchos…no hay nada perfecto…una metodología que libere de errores en software no creo que valla a existir nunca, pero la tendencia es hacer la Ingeniería del Software, una ingeniería mas segura, como otras…”(Dr. Guillermo Licea).

Diversos especialistas en ingeniería del Software, como Gonzalo C. Agustín,

(1991); Mark, N. y P. Rigby (1994); García B., Rafael; Sánchez, Salvador, (1993), entre otros expertos en el tema han descrito una serie de aproximaciones teórico-practicas relativas a diseñar formalismos metodológicos que den por resultado métricas de programación estructurada de Software, que amortice esta “crisis” en la programación: procesos de verificación de los programas; reutilización de programas modulares; modelos de ciclo de vida más largos; entornos de desarrollo, etc. sin embargo ninguna de estas soluciones estructuradas durante los últimos 20 años (inicio de la Ingeniería del Software), han sido capaces de proporcionar una solución suficientemente eficiente que logre disminuir la incertidumbre y el riesgo que implica la presencia latente de errores en el diseño y codificación del Software.

No se ha llegado a una unificación convincente, en gran parte porque coexisten diferentes y diversas arquitecturas, metodologías, y métricas para abordar un proyecto de software, lo cual vuelve hasta el momento, imposible de unificar en un solo paradigma de software las inagotables singularidades y excepciones que constituyen la norma habitual de esta disciplina. Y si a esto le sumamos que el software propietario es una especie de “caja negra” donde sólo el propietario de la patente puede acceder al código para su modificación.

Esta segunda rigidez del software ha implicado que el Software Libre se erija a fines de los noventa y con más fuerza en este siglo, como una alternativa viable a la crisis del Software, en el sentido que en el software libre es una especie de “caja abierta” donde no sólo se accede al código fuente, sino que existe toda una comunidad de programadores atentos a los errores, mejoras o propuestas de modificación al código, lo cual implica que se origine una respuesta a los errores o señalamientos realizados en un tiempo muy corto y sin violar derechos de patente. (En esto han coincidido más de 10 entrevistados de Software libre).

14

4.- La ingeniería del Software: gran ausente entre los profesionales de Software

En México, en un estudio representativo realizado en 800 empresas desarrolladoras de software, entre 382 técnicos y 418 profesionales4; se apreció que 76.2% de los programadores de software poseen estudios universitarios, principalmente en las profesiones de Ingeniería en computación (40.5%), Licenciado en Informática (15.6%), Licenciado en sistemas computacionales (9.8%), Licenciado en Ciencias de la Computación (5.4%), sin embargo estos trabajadores de “cuello de silicio” 78% poseen menos de 7.6 años de experiencia laboral, y existe una amplia gama de labores, es decir NO se concentran en la codificación directamente, tan sólo en el puesto de Desarrollador fue 1.5% y como Programador 4.2%, destacando el puesto de Jefe (15.4%) y Gerente (16.7%).

Existe una amplia dispersión en los puestos desarrollados por los profesionales del Software, señalando la presente encuesta que sólo 12.4% de los puestos laborales tienen relación con el desarrollo de software (Analistas, programadores, desarrolladores y líderes de proyecto). Estos datos dan cuenta de la fase temprana en la cual se encuentra el mercado de trabajo de los profesionales de Software, es decir un porcentaje importante de los empleos posee un perfil de “ejecutivos” contra un perfil más operativo que demanda esta industria. Gartner en un estudio del 2003, denomino a la industria del Software con estas características como empresas en una fase “artesanal”.

Los profesionales del Software, en México no están debidamente especializados, ya que según la encuesta señalada, 65.7% de la empresas no requieren de título; 66.9% no demanda estudios o certificaciones especiales; 51% demanda a técnicos en lugar de profesionistas, sólo 16.9% de los profesionales de software declaro estudiar maestría y 3.5% especialización.

El mercado de trabajo de los profesionales de software presenta una polarización dominante entre los que no poseen título profesional 65.7%, de los cuales 44.6% no posee estudios adicionales (1,928 empleados) y 21.1% si posee estudios adicionales (1,091 empleados) y aquellos que a pesar de tener título profesional 34.3%, el 22.3% no poseen estudios adicionales (1072 empleados).

Hipotéticamente, consideramos que estos datos se deben a varias posibilidades: A) Las empresas desarrolladoras de Software no cuentan con esquemas de capacitación continua para sus empleados y no cuentan con programas de financiamiento de los mismos. Ya que poco más del 80% son empresas medianas e intermedias; B) Es un mercado de trabajo diferenciado, entre aquellos de reciente incorporación al trabajo, por ejemplo 78% son menores de 35 años, con menos de 7.6 años de experiencia; C) Un gran porcentaje del Software vendido es del tipo “Software empaquetado” (80%) y solo el 20% es Software a la medida. El primero hace alusión a software ya desarrollado por grandes empresas, por ejemplo Microsoft, luego entonces las empresas locales las contratan para que los instalen, lo configuren, instalen la red, las impresoras, etc. etc.

4 Secretaría de Economía, Universidad Autónoma Metropolitana, 2004, Noviembre. Estudio para determinar la cantidad y calidad de Recursos Humanos necesarios para el Desarrollo de la Industria de Software en México. 108 páginas.

15

En cambio el valor agregado, la creatividad y desarrollo de conocimiento reside en gran parte en el desarrollo de Software a la medida, es decir se hace un programa informático acorde a las necesidades del cliente. Hay que señalar que este pobre desarrollo de software a la medida, se debe en gran parte a que las empresas privadas, gobierno y academia desarrollan sus propias implementaciones. Select, calcula en 2003 tan sólo las empresas mexicanas invirtieron 2,243 millones de dólares (Select, Mercado de TIC´s, 2003), contra los 840 millones de lo registrado por empresas dedicadas al desarrollo de software, es decir que las empresas gastaron 2.6 veces más en sus propios departamentos internos, que el monto total de la industria del software, eso sin contar las respectivas inversiones de los Bancos, Empresas de Gobierno (INEGI, SHCP, etc.) etc.

Otro aspecto interesante de este estudios son los Conocimientos, habilidades y destrezas de la industria del Software, ya que este es un renglón clave entre los trabajadores de “cuello de silicio”, se observa que los profesionales de software 46.4% NO posee estudios adicionales, sin embargo este porcentaje puede estar sesgado a que sean las respuestas de los técnicos, los cuales representan 47.7% de los casos estudiados. En contraste un 52.2% declaro haber realizado un curso en programación y desarrollo, computación y redes; 19.8% un diplomado, ya sea en redes, procesos, comunicaciones-telecomunicaciones; 16.9% una maestría, principalmente en sistemas, computación y redes. Aquí destaca un hecho importante, que los profesionales de software poseen capacidades y habilidades “tradicionales” a una primer etapa de desarrollo en la industria del Software, que Gartner (2003) enuncia como “artesanal” ya que no poseen certificaciones especificas (sólo 2.5% contra una demanda de 33.6%); existe una capacitación empresarial casi nula del 0.8% y 0.0 de exámenes de aptitudes, lo cual nos indica de una brecha cualitativa entre los conocimientos y habilidades que poseen los trabajadores de cuello de silicio y la demanda de las empresas.

Un apartado importante en este estudio es el haber preguntado cuales serán las demandas en el futuro de los profesionales del software, (pp. 687-97). Destacando una diferencia entre aquellos conocimientos y habilidades que los programadores señalan: desarrollo de habilidades, comunicación oral y escrita, conocimiento y administración en sistemas operativos y consultoría en Tecnologías de la Información); contra los que demandan las empresas: Manejo y Conocimiento de bases de datos, programación de sistemas, y herramientas de programación. Ambos coincidieron en que las habilidades cognitivas de razonamiento y capacidad de resolver problemas son los tópicos mejor evaluados en el futuro. 5.- La otra campaña: Software Libre

Un ejemplo que esta atrayendo la mirada de tecnólogos, sociólogos, economistas, entre otros investigadores es este fenómeno de compartir información gratuita, sólo con el fin de ampliar la “comunidad de software libre”, este compartimiento gratuito de la información, el conocimiento y las innovaciones, impacta a los colosos de los sistemas informáticos como Microsoft, Oracle, IBM, etc. Por citar un dato, en los últimos meses del 2004 se dio a conocer en la red un navegador basado en plataforma de Software libre: Firefox5, con 17 millones de descargas en los primeros meses, cantidad que significa 15% del mercado mundial 5 Puede descargarlo en www.mozilla.org

16

de Microsoft. Según el creador de este navegador Mitchell Baker “Microsoft dejo de innovar su propio producto. Firefox…ha surgido con excitantes características” y el jefe de diseñadores del mismo Brendan Eich comenta “Tal vez la mayor motivación sea la seguridad. Con frecuencia los usuarios de Explorer son victimas de brechas de seguridad e invasiones de spyware, y dado que Explorer esta integrado a Windows, su vulnerabilidad le da a los de afuera acceso a toda su computadora” (Newsweek, 14 de febrero, 2005 p. 6).

Para los especialistas en Software Libre6 Enrique Chaparro (www.vialire-org.ar Argentina); Ismael Olea (www.olea.org España); Giovanni Zukuaga (www.avansoft.com Colombia); Gunnar Wolf (http://gwolf.org México) coinciden en señalar que el Software no es un bien escaso, que deba ser caro y sólo para una elite de empresas que pagan licencias de uso o que pueden invertir grandes cantidades de dinero en el desarrollo de software privado, por el contrario el software debe ser utilizado por un gran numero de personas y empresas para que pueda dinamizarse la economía. Además advierten que una manera de cerrar las brecha digital de las TIC en el mundo es implementando software gratuito.

Sin lugar a dudas la delantera en el mercado de las tecnologías de la información lo lleva el software propietario, con empresas globales como IBM, Microsoft, Oracle, etc. sin embargo para diversos investigadores (Andersen y Valente:1999; Lerner y Tirole:2000; Weber:2000; entre otros) el software libre es importante para los países en desarrollo para los cuales pagar licencias de uso está fuera de su alcance.

Por otra parte el uso de software libre, no es exclusivo de empresas sin fines de lucro, por el contrario muchas empresas proveedoras de software, distribuyen software en código libre porque consideran que es una forma de debilitar los monopolios de sus competidores. Por ejemplo, en el año 2000 IBM anunció que promovería el uso de Linux (sistemas operativo que permite “correr” software libre) con el fin de ganar una cuota de mercado de los sistemas operativos de Microsoft y Sun, dos de sus principales rivales. En 2003, SAP informo que distribuiría MySQL, pretendiendo con ello reducir el oligopolio de IBM, Oracle y Microsoft en Sistemas gestores de bases de datos; Sun Microsystem, por su parte promovió StarOffice, basado en software libre, versión similar al de Microsoft en ordenadores personales. (Carr:2005:70-71).

Una particularidad del software libre, es que se constituye como un paradigma tardío, en el cual es completamente diferente al paradigma de licenciamiento por uso en el caso de patentes y el software propietario tradicional. La característica principal, es que es imposible crear software libre que incluya complementos de software propietario, patentados sin tener que modificar radicalmente el uso práctico de ese software; también que no es posible distribuir un software libre como propietario, es decir esta protegido por la licencia GPL, que no es otras cosa que una licencia gratuita para todos los que quieran hacer uso del software desarrollado en lenguajes con código libre, es decir, se tiene acceso a esa licencia GPL de forma gratuita, y se pude manipular las líneas de código y así mejorar, perfeccionar, darle mantenimiento y actualizarlo sin muchos problemas. 6 Entrevistas realizadas en Congreso Nacional de Software libre, UAM, D.F. 25-28 de Febrero de 2005.

17

De este modo la tecnología del software libre, se esta abriendo paso aceleradamente en este siglo XXI, los programas desarrollados en lenguajes de software libre, garantizan de cierta manera no los derechos de propiedad, sino el acceso gratuito a los mismos, de esta manera la estrategia de este sistema de producción de software esta garantizando una rápida estandarización de estas tecnologías, sin embargo, son tardías en el sentido que hasta 30 años después, se despegan de la plataforma de Internet, es decir, se desarrollan programas para las compañías, para los gobiernos, para el sistema educativo, para el financiero, etc. el mote de tardío, de ninguna manera quiere decir que sea innecesario, sólo es con el fin de señalar que esta en desventaja con la acumulación de conocimiento, habilidades y destrezas socializadas del software propietario. Desventaja que se cerrara en la medida que los gobiernos, sistema educativos y compañías den cuenta de las ventajas que ofrece el tener acceso al código fuente, no pagar licencias, compartir la información y conocimiento de un software y estarlo actualizando “a la medida” sin incurrir en grandes gastos. 5.1. Interoperabilidad: Software propietario-Software libre

Esta idea del software libre esta rompiendo esquemas del conocimiento y la información, en el sentido que el concepto ya ha emigrado hacia la electrónica, la robótica entre otros, es decir, ¿Por qué no pensar en la liberación de los planos electrónicos?, por ejemplo los de satélites, sistemas automotrices de vehículos, celulares, etc. con el fin de que la tasa de innovación, o espiral de la innovación sea mas veloz, y que se tenga acceso a mejorar lo ya existente. ¿Por qué debemos de conformarnos con lo que el mercado nos ofrece?, ¿Por qué no mejorarlo?. Preguntas que están presentes en las más de 15 entrevistas a programadores de software libre, inspirados en Richard Stallaman, precursor de la filosofía del Software Libre. Esta filosofía también a migrado hacia percepciones más finas como las de gobierno libre, que se parece al caso de las compañías que descubrieron que sus programas de software privado no eran compatibles y tuvieron que promulgar por una software homogéneo (Libro Blanco en Europa, Libro Amarillo en Venezuela y el fracasado Libre Verde de Brasil); así los gobiernos en los últimos años, se preguntaron porque deberían pagar licencias de uso o patentes y porque deberían poner la información de un gobierno en manos de empresas privadas, ¿porque no tener su propio equipo de desarrolladores?, pregunta que se suponía superada por el software privado, pero que nos remite a una reflexión: Si existe un conjunto de tecnologías infraestructurales relativas durante las décadas de ochentas y noventas en software propietario y coexisten con un sistema de software libre, que se constituyo como columna vertebral de Internet y, hacia fines de los noventa y principios del siglo XXI ha incrementado su presencia en empresas proveedoras de software, porque no preguntarnos ¿Son incompatibles, son irreconciliables, son opuestos sus componentes?.

18

Curiosamente, la respuesta nos la da uno de los fundadores del software propietario de Microsoft: Steve Ballmer:

“las políticas gubernamentales deberían promover los estándares abiertos y deberían ser neutras en cuanto al código fuente. ¿Por qué digo eso? Porque los gobiernos necesitan interoperabilidad. Y los estándares abiertos tratan precisamente de eso, de la interoperabilidad. Los gobiernos deben de insistir en esto porque tienen mucho sentido y porque les resultará beneficioso. Los códigos abiertos en cambio, significan diferentes cosas para distintas personas. ¿Deben acaso los gobiernos preferir o usar productos con código abierto? No. El código abierto supone un modelo económico especifico en el que, básicamente, ninguna empresa privada podría hacer negocios. No estoy diciendo que el código abierto sea malo; lo que estoy diciendo es, sencillamente, que los gobiernos deberían permitir su uso, pero no transformarlo en un requisito…” (Revista Política Digital, Octubre 2004, pág. 18, el subrayado es nuestro)

En la entrevista realizada por Andres Hofmann, destacan dos cosas: la primera

es la preocupación de Steve Muller como dueño de Microsoft que los gobiernos de muchos países estén optando por las tecnologías en Software libre y lo que ello implica y, en segundo lugar la tendencia de las TIC hacia una mayor interoperabilidad entre las tecnologías del software propietario y software libre:

“A la gente siempre le ha preocupado la interoperabilidad. Lo que tenemos ahora gracias a la revolución XML es una forma orquestada de lograr la interoperabilidad…de un lado había veinte cosas y veinte del otro y siempre tratábamos de conectarlas todas. Ahora seguimos teniendo veinte y

19

veinte, pero todo mundo está de acuerdo en cómo mapear las cauces y en cómo deben de cruzar y en como desmapear. De esto se trata la revolución de los Web Services XML.” 7 (entrevista a Steve Ballmer, Revista Política Digital, Octubre 2004: 19)

El concepto de estándares abiertos, va más allá de la interoperabilidad entre

software propietario y software libre, ésta es parte integrante, de la denominada informática abierta, término que abarca tanto el software comercial basado en estándares abiertos, compatibles y las soluciones de software libre, como Linux; es contraria al estándar cerrados, incompatible; es decir el estándar abierto propone que el estándar cerrado es algo del pasado, inconsistente para el mundo actual que exige cada vez más una interconectividad basada en Internet; el estándar abierto se constituye como un referente obligado para constituir a las TIC como una tecnología infraestructural informática abierta, flexible, no dependiente de ningún proveedor privado y, basada en estándares abiertos.

7 XML es eXtensible Markup Language desarrollado por el World Wide Web Consortium (W3C). Su objetivo principal es conseguir una página web más semántica. Al igual que el HTML, se basa en documentos de texto plano en los que se utilizan etiquetas para delimitar los elementos de un documento. http://es.wikipedia.org/wiki/Interoperabilidad

20

6. Resumen

1. La informática abierta, estándares abiertos, el software libre y el software comercial que implanta estándares abiertos, tienden a una interoperabilidad porque posibilitan el avance tecnológico y, porque las empresas y los gobiernos creen que se lograran mejores ventajas competitivas y un mayor valor agregado.

El papel que la informática abierta y los estándares abiertos han jugado en la evolución del comercio electrónico ha sido claramente demostrado, y el papel que jugarán como parte de los futuros proyectos de software libre y comercial que contenga esos estándares, será básico para el progreso hacia una mejor capacidad del comercio electrónico y e-gobierno.

Empresas y gobiernos están adoptando la informática abierta, estándares abiertos y proyectos de software libre. Las políticas de compras públicas que los fomenten, tendrán que ser pragmáticas, insistiendo en la apertura y teniendo en cuenta todos los objetivos de la informática abierta; ante esta tendencia el coloso azul IBM, ha tomado la decisión estratégica de adoptar todos estos principios y ha alineado sus hardware, software, servicios y consultoría, para apoyar a sus clientes en el camino hacia la interoperabilidad en el Software, lo cual, permitirá ya no diferenciar entre un modo de producción de software privativo y uno libre, sino que se consolide la Industria del Software.

2.- En los últimos 30 años, el proceso de trabajo se caracteriza por estar en una “fase caótica”, donde los programas NO cumplen las expectativas requeridas por el cliente, incumplimiento en entregas a tiempo, una calidad deficiente, nula existencia de la documentación y métricas de calidad en el programa. No existen los manuales para darle mantenimiento y actualización a los programas.

21

3.- Existencia de dos Modos de Desarrollo del Software: Software Privativo (SWP) y Software Libre u Open Source (SWL) 3.1. Modo de desarrollo del Software privativo (SWP):

3.1.1. El SWP, se caracteriza por ser una especie de “caja negra”, en el cual NO se tiene acceso al código fuente, ya que éste representa el “valor agregado” del producto informático. Es decir, se vende un producto cerrado. 3.1.2. La ingeniería del Software, impulsa un proceso de trabajo que sea estándar, mediante diversas metodologías y programas (CMM; INTIL; CASE, etc.), sin embargo, éstas metodologías son aplicables a grandes empresas y tienden a la rigidez en la innovación y desarrollo de conocimientos; es decir, existe una socialización fragmentada de las habilidades, aprendizajes e innovaciones que sólo forman parte de los equipos de trabajo de una empresa, en otras palabras, las capacidades y habilidades innovadoras se aíslan al interior de la empresa. 3.1.3.- Las capacidades de abstracción cognitiva desarrollados en el proceso de trabajo del SWP son una especie de “caja negra” para los usuarios (empresarios, gobiernos, programadores, etc. que adquieren las soluciones), es decir la empresa desarrolladora vende la solución X a un problema Y. Cobra derechos de patente, No otorga el derecho de reproducirlo, tan solo VENDE UN PRODUCTO FINAL. 3.1.4.- Proceso reiterativos de la innovación. Es decir supóngase una Solución X desarrollado por la empresa de software A, en el tiempo T1, mediante el lenguaje de programación i. Ésta solución, puede haber sido ya desarrollada por la empresa de software B o C con un lenguaje de programación ii, ó iii. La diferencia en los procedimientos, diferencias, similitudes, errores (bugs), eficiencias, calidad, métodos, pueden coincidir o repetir fallas, presentar innovaciones diferenciadas o repetitivas, no existe la “reutilización” de código ya desarrollado, no se innova, se limita la innovación. 3.1.5.- El proceso de trabajo es vertical, jerárquico, con grados de libertad para el programador, pero sin capacidad de compartir el conocimiento.

3.2. Modo de desarrollo del Software Libre (SWL)

3.2.1 El SWL se caracteriza por ser una especie de “caja blanca” para los empresarios o gobiernos que adquieren las soluciones en estos programas, no sólo por tener acceso al código que significa información; sino también porque existe un intercambio de conocimientos tácitos, que se traducen en innovaciones incrementales, lo cual significa, con el paso del tiempo una maduración del Software implementado. 3.2.2.- Los procesos de abstracción cognitivos que representan los algoritmos matemáticos, es decir las METODOLOGÍAS y MÉTRICAS por los cuales se desarrollo el programa, o las mejoras que se hayan propuesto, están codificadas, es decir es obligación del programador REPORTAR LAS

22

SECUENCIAS y explicar el PORQUE se desarrollaron determinadas líneas de código en especifico. 3.2.3- La empresa desarrolladora de Software basada en estándares abiertos, vende la solución X a un problema Y, por el cual su ingreso se basa en el tiempo invertido en encontrar la solución, NO cobra derechos de patente, Otorga el derecho de reproducirlo y libera la Solución (está obligado por los protocolos GPL); es decir provee un SERVICIO ,no un producto, donde el factor clave es el mantenimiento y las actualizaciones. 3.2.3.- El proceso de trabajo en el SWL es proactivo; por ejemplo supóngase una solución X2 desarrollado por la empresa de software A, en el tiempo T1, mediante el lenguaje de programación i, basada en una Solución X que es proporcionada por una comunidad de SWL, por ejemplo debian (http://www.debian.org/index.es.html). Ésta nueva versión X2 se libera en aquella comunidad que le dio origen; ahora bien, otra empresa de software B o C accede a esta nueva versión y puede o no modificarla y así sucesivamente se origina una espiral preactiva de innovaciones a partir de reutilizar líneas de código, optimizar algoritmos, depurar los errores, hacer más eficientes los procesos, añadir tareas, etc. 3.2.4- En SWL el proceso de trabajo es Horizontal/virtual, con “amplia libertad” para los programadores en resolver el problema que ha sido definido y contextualizado en las tareas que debe de realizar por el líder del proyecto. 3.2.5- El programador en SWL, acudirá primero a experiencias similares en la Comunidad de SWL, y posteriormente acorde a sus habilidades y experiencias con los lenguajes de programación que mejor utilice para aportar una nueva solución o mejora. Existe una socialización veloz/limitada, que concierne sólo a aquellos que integran la comunidad. Es decir sólo los Development certificados por la comunidad son los que aprueban las modificaciones a las soluciones. 3.2.6- El proceso de trabajo en el SWL parece estar en un “circulo virtuoso”, donde las comunidades virtuales hospedadas en Internet han funcionado como una especie de “prótesis cognitiva” que permiten una respuesta rápida, ágil y sin “barreras” burocráticas y económicas al conocimiento. (Antonio Ognio, Peru, Entr. 15.05.06). También se ha generado una “prótesis social” que permitirá a la Industria del Software, superar esta etapa “caótica e irregular ” en la cual se encuentra. (Antonio Ognio, Peru, Entr. 15.05.06).

23

4.- Que significa la interoperabilidad entre Software privativo y Software libre. Hipotéticamente, consideramos que la industria del Software, específicamente el proceso de trabajo, esta ante la preeminencia de acelerar eficientemente sus procesos de una forma proactiva, veloz y acelerada, del tal forma que los conocimientos, habilidades e innovaciones se integren en una espiral “positiva”, de tal forma que las miles de horas hombre que significa un software, ya sea SWL o SWP se integren y se recapitalicen con un efecto multiplicativo en la tasa de innovación al interior de la industria, por ejemplo, las soluciones de la paquetería DEBIAN en la versión 2.2 del año 2000 contenía 58 millones de LDC, para el año 2004, se libero la versión DEBIAN 2.3 que significaba 230 millones de LDC; es decir, se calcula en 8 mil millones de Horas Hombre para desarrollar esta nueva versión que contiene 172 millones de LDC más. (Entrevistas a desarroladores certificados de DEBIAN Isaac Clerencia, de España; Marcela Tiznado y Flavio Bello, de Argentina).

Estas 172 millones de líneas de código desarrolladas por la comunidad de SWL DEBIAN.ORG. representan una millones de horas hombre que no sólo es conocimiento e información disponible, sino una fuente de innovaciones que deben de capitalizarse, carnada que definitivamente atrae a las grandes corporaciones. Bibliografía Arora, A., A., Fosfuri, y A., Gambardela (2002), Los mercados de tecnologías en la economía del conocimiento, en Foray D., Sociedad del conocimiento, Revista internacional de ciencias sociales, numero 171, Marzo. Pp. 155-174. Bell, Daniel (1976), El advenimiento de la sociedad industrial, Madrid, Alianza. Casas, R., (2003), Enfoque para el análisis de redes y flujos de conocimiento, Luna, M., (Coord.) Itinerarios del conocimiento: formas dinámicas y contenido. Un enfoque de redes, Ed. España (Anthropos) México (Universidad Autónoma Metropolitana Izt.) pp. 19-50. Chudnovsky, D., López, A. y Melitsko, S. El sector de software y servicios informáticos (SSI) en la Argentina: Situación actual y perspectivas de desarrollo CENIT DT 27/07 2001. David, P., y Foray D., (2002) Una introducción a la economía y a la sociedad del saber, en Foray D., Sociedad del conocimiento, Revista internacional de ciencias sociales, numero 171, Marzo. Pp. 7-28. De la Garza E., (1996), Modelos de industrialización en México, DF., UAM. De la Garza Enrique, (Coord.), (2003), Tratado Latino Americano de Sociología del Trabajo, Colegio de México, FLACSO; UAM, Siglo XXI. México. De la Garza, E., (1999), El papel del concepto de trabajo en la teoría social. En E., de la Garza (Cord.) Tratado latinoamericano de Sociología del Trabajo, México FCE. Dosi, G., (2003), Paradigmas tecnológicos y trayectorias tecnológicas, en Chesnais F., y Neffa J., (Comps.) Ciencia, tecnología y crecimiento económico. Argentina: CEIL PIETTE CONICET.

24

Freeman, C. (1975), La teoría económica de la innovación industrial, Alianza, Madrid. Giddens, Anthony (2000), Un mundo desbocado, Madrid, Taurus. Gonzalo C. Agustín, (1991), Ingeniería del Software: Práctica de programación. Editorial RA-MA, Serie Paradigma. Hoch, D., C. Roeding, G. Purkert y S. Lindner (1999), Secrets of Software Success. http://www.nasscom.org Kern, H. y Schumann, 1988, El fin de la división del trabajo; Revista e sociología del Trabajo, num. 2, 1988. Kern, H. y Schumann, 1989, El fin de la división del trabajo: Racionalización en la producción industrial. Madrid, M.T.S.S Luna, M. (2003), La red como mecanismo de coordinación y las redes de conocimiento, en Luna, M., (Coord.) Itinerarios del conocimiento: formas dinámicas y contenido. Un enfoque de redes, Ed. España (Anthropos) México (Universidad Autónoma Metropolitana Iztapalapa) pp. 51-78. Mark, N. y P. Rigby (1994), Ingeniería del Software, Editorial BT-Gran Bretaña, Megabyte; McClure, C., (1993) CASE. La automatización del Software. Editorial RA-MA, Addison-Wesley Iberoamérica, Traducción de José M., Ortega. Metcalfe. (1989). The diffusion of innovation: an Interpretative Survey. En Dosi G, C. Freeman R. Nelson, G. Silverberg y Soete, L. (eds.), Technical Change and Economic Theory, Pinter, London Meyer, Bertrand (1997) Construcción de Software orientado a objetos. 2 edición, traducción de Katrib M., Miguel; García B., Rafael; Sánchez, Salvador, editorial Prentice-All. Micheli, J. (2003). El trabajo de digitofactura en la economía postindustrial en Espacios globales: espacios del capitalismo, Ed. Carmen Bueno (en prensa). México. Naisbit, J. (1982), Megatoends, Warner Books; Osrborne , D., The invisible Computer, MIT Press. Novick, M., (1999), La transformación de la organización del trabajo, en E. De la Garza (Coord.) Tratado latinoamericano de Sociología del Trabajo, México FCE. Opensource.org 2004 http:/www.opensource.com Pal, Nilendu y T.R. Madanmohan (2002) Competing on Open Source: Strategies and Practise. http://opensource.mit.edu/papers

25

Paulk, Mark C.; et.al. (1993); Capability Maturity Model 1.1; IEEE Software, Vol. 10. No. 4, Julio 1993 pp. 18-27. CMMI-Adoption Information 2003, www.sei.cmu.edu/cmmi/adoption/adoption.html Perazzo, R., M. Delbue, J. Ordoñez y A. Ridner (1999), "Oportunidades para la producción y exportación argentina de software", Documento de Trabajo N° 9, Agencia Nacional de Promoción Científica y Tecnológica, Buenos Aires. Pérez, C., (2003) Revoluciones tecnológicas, cambios de paradigma y de marco socioinstitucionales, en Aboites, J., y Dutréint,G., (Coords.) Innovación, aprendizaje y creación de capacidades tecnológicas, UAM, Xochimilco. Pp. 13-45 Pérez, Carlota y C. Ominami (1986), La Tercera Revolución Tecnológica, Buenos Aires. Stallman, R. (1983).FSF Manifiesto. www.fsf.org Toraine, A. (1985), La organización profesional de la empresa, en Freedman, G., Y P. Naville, Tratado de Sociología del Trabajo Tomo I, México FCE pp.384-404 Torrisi, S. (1998), Industrial Organization and Innovation. An International Study of the Software Industry, Edward Elgar, Cheltenham. Yoguel G, Novick M, Milesi D, Roitter S y Borello, J. (2003). Información y conocimiento: la difusión de TICs en la industria manufacturera argentina. Revista de la CEPAL, Santiago de Chile. Yourdon E. y J, Yourdon: 1998, Time Bomb 2000, Prentice-Hall; J. GUADALUPE RODRÍGUEZ GUTIÉRREZ ESTUDIANTE DE DOCTORADO EN ESTUDIOS LABORALES. UNIVERSIDAD AUTÓNOMA METROPOLITANA. IZTAPALAPA. PROFESOR INVESTIGADOR EN LA UNIVERSIDAD DE SONORA. PARA RECIBIR COMENTARIOS [email protected] TEL. DISTRITO FEDERAL: (0155) 56103197