Upload
others
View
8
Download
0
Embed Size (px)
Citation preview
82
CAPITULO III
MARCO METODOLÓGICO
1. PARADIGMA La investigación sobre trasferencia de conocimiento en los programas
de contaduría pública de universidades del departamento del Cesar, se
inscribe en un paradigma de corte analítico, donde el conocimiento se funda
en los hechos, busca las causas que explican el fenómeno, confronta teorías
praxis, detecta discrepancias, mantiene la neutralidad valorativa y utiliza el
método científico.
Por otra parte, se vincula al positivismo, ya que supone la existencia de
un mundo objetivo estructurado independientemente del sujeto que lo
estudia, pero ese mundo está gobernado por leyes que permiten explicar,
predecir, controlar el fenómeno por parte de la investigadora, a través del
método hipotético-deductivo, donde el conocimiento obtenido, se considera
objetivo, basado en la experiencia y válido para todos los tiempos o lugares.
Acota Barrantes (2007), Thomas Kuhn fue el primero que introdujo el
término paradigma, dentro del vocabulario científico social en su obra la
83
estructura de las revoluciones científicas de 1962, sin embargo, cuando se
utilizan métodos, técnicas y formas de aplicación, como una forma de trabajo
o para el análisis de un problema, a esto se le denomina paradigma, el cual
no es de escogencia libre, por que tiene que ver con la manera de pensar o
es producto de la experiencia a lo largo de la vida, es un esquema teórico,
una vía de percepción y comprensión del mundo, que un grupo de científicos
ha adoptado; sin embargo, dentro de un paradigma puede darse diferentes
enfoques para tratar un problema.
Además para Bunge (2005), el paradigma es un vocablo polisémico que
significa parangón, ejemplar, modelo a imitar, orientación teórica, estilo de
pensamiento, entre otros significados, es un cuerpo B de conocimientos de
trasfondos, junto con un conjunto H de hipótesis, específicas del tema, una
problemática P, un objetivo A, y una metódica M. Donde P = B, H, P, A, M,
por lo tanto, los paradigmas de este tipo, son una generalización del
concepto de enfoque.
Expone Hurtado y Toro (2007), los paradigmas analíticos surgen como
rechazo a la metafísica, destacándose la postura de un racionalismo analítico
para conocer la realidad, donde la razón es la única autoridad y la realidad es
resuelta en partes, a partir de las cuales, puede ser unida o reconstruida; por
otro lado, el conocimiento se funda en los hechos, siendo la experiencia la
fuente de todo conocimiento, existiendo entonces verdades observables.
84
Los paradigmas analíticos, buscan encontrar las causas que explican
los fenómenos, confrontar teorías, praxis, detectar discrepancias y establecer
conexiones generalizables entre variables, enfatizándose en la neutralidad
valorativa, como criterio en la búsqueda de la objetividad; estos paradigmas,
propician la utilización de un método único de investigación que es “el
método científico”.
Expresa Nieto y Rodríguez (2010), el paradigma positivista también
denominado cuantitativo, empírico analítico, racionalista, cuyo enfoque
investigador, se vincula a las ideas positivistas o empiristas de teóricos del
siglo XIX y comienzos del XX, como Comte, Stuarh Mill, Durkheim o Popper,
defienden los siguientes supuestos sobre la concepción del mundo o la forma
de afrontar su conocimiento.
Primero, el mundo natural tiene existencia propia, independientemente
de quién lo estudia. Segundo, el mundo está gobernado por leyes que
permiten explicar, predecir y controlar los fenómenos del mundo natural, que
pueden ser descubiertos o descritos de manera objetiva y libre, por los
investigadores con métodos pertinentes.
Tercero, el conocimiento que se obtiene se considera objetivo o real,
basado en la experiencia, siendo válido para todos los tiempos y lugares, con
independencia de quién lo haya descubierto. Cuarto, utiliza la vía hipotético-
deductiva como lógica metodológica válida para todas las ciencias. Quinto,
85
defiende la existencia con cierto grado de uniformidad y orden en la
naturaleza.
Explica Barrantes (2007), las universidades del siglo XIX, alcanzaron su
mayor progreso en las ciencias naturales, respecto de las ciencias sociales o
espirituales, gracias al desarrollo de una lógica particular y a la metodología
experimental, éste modelo de construcción de conocimiento dio origen al
paradigma positivista. Por otra parte, la investigación buscaba, la validez del
conocimiento científico, reduciendo la epistemología a una teoría de la
ciencia, que supone la existencia de un mundo objetivo estructurado
independientemente del sujeto cognoscente, donde la realidad está dada, o
solo hay que encontrar el método adecuado y válido para descubrirla.
El interés del positivismo es explicar, controlar y predecir; la naturaleza
de la realidad, es duda, singular, tangible, fragmentable o convergente; la
relación sujeto-objeto en la producción del conocimiento es independiente,
neutral, libre de valores; el propósito de la investigación en éste paradigma,
es buscar generalizaciones libres de contexto, leyes o explicaciones
(nomotéticas): deductiva, cuantitativa, centrada en semejanzas, busca la
relación causa-efecto; desde el punto de vista axiológico es libre de valores,
predomina el uso de técnicas cuantitativas para los criterios de calidad;
busca el rigor en términos de validez externa y utiliza la teoría hipotética-
deductiva, lo que genera hipótesis por contrastación.
86
Los instrumentos que utiliza , se intercalan entre el investigador o los
fenómenos sujetos a estudio, el diseño de investigación es pre estructurado
al detalle, utilizando el laboratorio y el muestreo como escenarios que se
repiten a menudo; las investigaciones bajo este paradigma, en cuanto al
análisis se orienta a la verificación, confirmación, reduccionismo, lo
inferencial e hipotético-deductivo y con un énfasis al análisis de los
resultados.
2. ENFOQUE
La investigación adoptó el enfoque cuantitativo, ya que se diseñó un
cuestionario de alta confiabilidad y validez ante terceros, se planteó la
recolección de datos, el análisis, el uso de la estadística, para dar respuesta
no solo a las preguntas formuladas, sino también para probar la hipótesis o
cumplir con los objetivos propuestos entorno al proceso de trasferencia de
conocimiento, en los programas de contaduría pública en universidades del
departamento del Cesar, pero enmarcado en las competencias del factor
humano, los proyectos de innovación, las organizaciones híbridas y las
políticas de vinculación (Universidad-Empresa-Estado).
Manifiesta Barrantes (2007), el enfoque es una forma de ver o plantear
la resolución de un problema dentro de unos lineamientos o compromisos
conceptuales (paradigma) es decir, determina generalmente cómo actuamos
87
respecto de algo. Por su parte, Gómez (2006), infiere que lo importante en la
definición del enfoque adoptado para una investigación, es que este sea
coherente con el problema que hemos planteado o nos permita llegar a
contestar las preguntas de investigación cumpliendo así con nuestros
objetivos.
Además, Barrantes (2007), define que el enfoque cuantitativo responde
al criterio de confiabilidad externa, diseñando los ítemes del cuestionario o
entrevista de modo claro y ordenado, de manera que no generan respuesta
patrón; se mantiene así mismo, la anonimidad del encuestado para evitar las
distorsiones en los datos.
Mas aún en éste enfoque, se usan definiciones precisas y
operacionables por medio de indicadores específicos, no es necesario usar
observadores múltiples, por que los datos se obtienen con base en un
estímulo estandarizado, es decir, se introducen las mismas preguntas al
grupo de estudio; el investigador, debe especificar claramente la unidad o
unidades de análisis; al mismo tiempo, se espera que la confiabilidad externa
sea alta, debido al hecho de que se utilizan instrumentos estandarizados, lo
que facilita la conexión entre constructo e indicador, mientras que los
instrumentos pueden ser evaluados por terceras personas.
En el enfoque cuantitativo, las relaciones causa-efecto son expresadas
a priori, por lo que son menos susceptibles a la subjetividad; en cuanto a la
validez externa, se basa en su poder de generalización, en la selección de
88
una muestra escogida al azar con representatividad de todos los estratos de
la población; por lo tanto, los hallazgos son generalizables con certeza
estadística, que incluso puede ser medida.
Por su parte Gómez (2006), declara que el enfoque cuantitativo, utiliza
la recolección, el análisis de datos para contestar preguntas de investigación,
probar hipótesis establecidas previamente, confiando en la medición
numérica, el conteo y el uso de la estadística, para intentar establecer con
exactitud patrones en una población. Bajo esta perspectiva, la población es el
conjunto de todos los objetos de estudio que concuerdan con una serie de
especificaciones, mientras que las poblaciones deben situarse claramente en
torno a sus características de contenido, de lugar y en el tiempo, en este
enfoque recolectar los datos, es equivalente a medir.
3. TIPO DE INVESTIGACION
De acuerdo con los propósitos que persigue la autora, la investigación
es de tipo aplicada, busca confrontar la teoría con la realidad, para resolver
un problema específico; en cuanto al nivel de conocimiento es una
investigación descriptiva, ya que comprende la descripción, registro, análisis
e interpretación de la naturaleza actual o la composición del fenómeno y por
el alcance de la investigación, es un estudio exploratorio, debido a que el
tema examinado y la problemática ha sido poco estudiada.
89
Según Eyssautier (2006), la investigación aplicada es aquella que es
efectuada con la intención de resolver problemas específicos que se
presentan en la sociedad; los resultados de estas investigaciones tendrían
aplicaciones inmediatas a los problemas que experimenta una organización,
de los cuales una acción o una decisión debe ser tomada.
Para Tamayo y Tamayo (2004), a la investigación aplicada se le
denomina también activa o dinámica, se encuentra íntimamente ligada a la
pura ya que depende de sus descubrimientos o aportes teóricos, busca
confrontar la teoría con la realidad, es el estudio o aplicación de la
investigación a problemas concretos, circunstancias o características
concretas, por lo tanto, esta forma de investigación se dirige a su aplicación
inmediata y no al desarrollo de teorías.
Refiere Bernal (2006), en la investigación descriptiva, se muestran,
narran, reseñan o identifican hechos, situaciones, rasgos, características de
un objeto de estudio, o se diseñan productos, modelos, prototipos, guías,
etcétera, pero no se dan explicaciones o razones del porqué de las
situaciones, hechos, fenómenos, etcétera; la investigación descriptiva se guía
por las preguntas de investigación que se formula el investigador; se soporta
en técnicas como la encuesta, entrevista, observación y revisión documental.
Tamayo y Tamayo (2004), conceptúa que el tipo de investigación
descriptiva, comprende la descripción, registro, análisis e interpretación de la
naturaleza actual y la composición o procesos de los fenómenos; el enfoque
90
se hace sobre conclusiones dominantes o sobre cómo una persona, grupo o
cosa funciona en el presente; la investigación descriptiva trabaja sobre
realidades de hecho, caracterizándose por presentarnos una interpretación
correcta.
Reflexiona Hernández, Fernández y Baptista (2006), los estudios
exploratorios se efectúan, normalmente, cuando el objetivo es examinar un
tema o problema de investigación poco estudiado o que no ha sido abordado
antes. Es decir, cuando la revisión de la literatura reveló que únicamente hay
guías no investigadas e ideas vagamente relacionadas con el problema de
estudio. Sin embargo, Infiere Tamayo y Tamayo (2004), que los estudios
exploratorios se realizan con miras a la consecución de datos fieles y
seguros para la sistematización de estudios futuros.
4. DISEÑO DE LA INVESTIGACION
El diseño de la investigación es no experimental, la variable sobre
transferencia de conocimiento, no se somete al control ni intervención de la
investigadora, sino a su diagnóstico y evaluación; en cuanto a la
temporalización es transeccional descriptiva , ya que mide en un grupo de
personas la variable y proporciona su descripción en un momento único en el
tiempo; según el lugar, es una investigación de campo, al dar respuesta a los
91
objetivos mediante un instrumento en donde los datos e información se
recolecta de la realidad o fuentes primarias.
Señala Díaz (2009), como la investigación es no experimental se
caracteriza por la imposibilidad de manipular las variables independientes,
aquí solo se observan los fenómenos tal como se producen naturalmente,
para después analizarlos; a este tipo de investigación no se puede asignar
aleatoriamente sujetos a determinadas condiciones; en un estudio no
experimental no se construye ninguna realidad, la realidad ha sucedido en
ausencia del investigador.
Hernández, Fernández y Baptista (2006), afirman que el diseño de
investigación no experimental, es aquel que se realiza sin manipular
deliberadamente las variables, observándose los fenómenos tal y como se
dan naturalmente, para después analizarlos.
De acuerdo a Hernández, Fernández y Baptista (2006), los estudios
transeccionales descriptivos, nos presentan un panorama del Estado de una
o más grupos de personas, objetos, o indicadores en determinado momento;
los diseños transeccionales, realizan observaciones en un momento único en
el tiempo, cuando miden variables de manera individual y reportan esas
mediciones, son descriptivos.
Define Ortiz (2004), el diseño transeccional descriptivo es un tipo de
investigación que tiene como objetivo indagar la incidencia y los valores en
que se manifiesta una o más variables; consiste en medir en un grupo de
92
personas una, o generalmente, mas variables y proporcionar su descripción;
son estudios indagatorios puramente descriptivos que, cuando establecen
hipótesis, éstas son también descriptivas.
Enuncia Aamodt, Reyes y Catillo (2010), que otro lugar de investigación
es lejos y fuera del laboratorio, en “el campo”, la investigación de campo,
gana en validez externa, mientras que pierde en el control de variables
externas que no son de interés para el investigador (validez interna); en los
estudios de campo, obtener una forma de consentimiento informado, es decir
que los sujetos participen en los estudios por su propia voluntad, no solo
puede ser difícil sino que cambia la manera en que se comportan.
Estima Eyssautier (2006), la investigación de campo es aquella en la
que el mismo objeto de estudio, sirve como fuente de información para el
investigador, el cual recoge directamente los datos de las conductas
observadas; la investigación de capo se subdivide en cuatro ramas,
observación directa e indirecta, por entrevistas y por encuestas.
5. POBLACIÓN Y MUESTRA
5.1. Población
La población de la investigación es el conjunto de personas
involucradas con la transferencia de conocimiento en programas de
93
contaduría pública de las universidades en el Departamento del Cesar –
Colombia; esto es 233 personas de la Universidad Popular del Cesar y 51
personas de la Fundación Universitaria de San Martín, cuyas unidades de
muestreo están representadas por estudiantes de X semestre, profesores de
investigación o extensión y administrativos. Ver cuadro 2.
Cuadro 2
Población
Fuente: Elaboración propia (2013).
Precisan Scheaffer, Mendenhall y Lyman (2007), que una población es
un conjunto de elementos sobre los que se desea realizar una inferencia; la
definición de la población debe contener una descripción de los elementos
que se incluirán y una especificación de las mediciones que se tendrán en
cuenta ya que estos dos componentes están interrelacionados.
94
Dice Tamayo y Tamayo (2004), que la población es la totalidad de un
fenómeno de estudio, incluye la totalidad de unidades de análisis o entidades
de población que integran dicho fenómeno y que debe cuantificarse para un
determinado estudio, integrando un conjunto N de entidades que participan
de una determinada característica; se le denomina población, por constituir la
totalidad del fenómeno adscrito a un estudio o investigación.
5.2. Muestra y muestreo
La muestra de la presente investigación, es un subgrupo de la
población integrada por las personas involucradas con la transferencia de
conocimiento en los programas de contaduría pública de la Universidad
Popular del Cesar y Fundación Universitaria de San Martín en el
Departamento del Cesar – Colombia; esta muestra representa la población
por investigar, la cual se seleccionó mediante la técnica del muestreo
probabilístico, aleatoriamente, por tanto los elementos de la población tiene
la misma oportunidad de ser elegidos, se podrá conocer el error y la
confianza de las estimaciones.
Una vez se conocieron los elementos de la población, la cual se
consideró finita, se determinó el tamaño de la muestra a través de la
siguiente fórmula:
95
El tamaño de la muestra del programa de contaduría pública de la
Universidad Popular del Cesar es de (147) personas:
Entre tanto, el tamaño de la muestra del programa de contaduría
pública de la Fundación Universitaria de San Martín, es de (45) personas:
96
Sin embargo, para lograr una mayor precisión entre los elementos de la
muestra, se diseñó un muestreo estratificado, donde no sólo se estableció el
tamaño de la muestra (n), sino también el reparto por estratos (nh) o
afijación, que en la presente investigación fue de tipo proporcional, dado a
que el tamaño muestral de cada estrato, está en proporción al tamaño del
estrato, lo anterior a partir de la siguiente fórmula:
Entonces, en el programa de contaduría pública de la Universidad
Popular del Cesar, el tamaño del estrato de la población de estudiantes del
X semestre es de (122) personas, de profesores de investigación o
97
extensión (24) personas y de administrativos (1) persona. Por su parte, en el
programa de contaduría pública de la Fundación Universitaria de San Martín,
el tamaño del estrato de la población de estudiantes del X semestre es de
(36) personas, de profesores de investigación o extensión (8) personas y de
administrativos (1) persona. Ver cuadro 3.
Cuadro 3
Muestreo estratificado
Fuente: Elaboración propia (2013).
98
5.2.1. Muestra
Aclara Ross (2007), un subgrupo de la población que será estudiado en
detalle se llama muestra; para que la muestra proporcione información sobre
la población total, deberá ser, representativa de dicha población; el término
muestra representativa no significa que la distribución de los individuos de la
muestra coincida exactamente con la de la población total, sino que la
muestra ha sido elegida de forma que todos los elementos de la población,
tengan la misma probabilidad de pertenecer a la muestra.
Comenta Rodríguez (2005), cuando no es posible medir cada uno de
los individuos de una población, se toma una muestra representativa de la
misma; la muestra descansa en el principio de que las partes representan al
todo; por tal, refleja las características que definen la población de la cual fue
extraída lo que nos indica que es representativa; es decir, que para hacer
una generalización exacta de la población es necesario tomar una muestra
representativa; por lo tanto, la validez de la generalización depende de la
validez y el tamaño de la muestra.
5.2.2. Muestreo
Indica Grande y Abascal (2011), el muestreo es un procedimiento para
obtener una muestra, esta debe ser representativa de la población que se
99
desea estudiar o reflejar las características de los elementos que la
componen; que en el muestreo probabilístico, las unidades muestrales se
seleccionan a través de un proceso de azar, aleatorio, donde la muestra no
se selecciona por los investigadores, los elementos de la población tiene la
misma oportunidad de ser elegidos, se puede conocer el error, la confianza
de las estimaciones, los resultados se pueden generalizar y se puede evaluar
la representatividad de la muestra.
Concreta Ortiz (2004), el muestreo es una técnica estadística para
seleccionar una muestra representativa de la población o universo por
investigar para aplicar la encuesta; por otro lado el muestreo probabilístico,
es un muestreo aleatorio, por tanto es un método que permite elegir una
porción (muestra) de una población o universo y que exige que todas las
muestras de un tamaño fijo (n) tengan la misma probabilidad de ser
seleccionadas.
5.2.3. Tamaño de la muestra
Puntualiza Hurtado y Toro (2007), el tamaño de la muestra persigue
compensar las deficiencias de validez que puedan tener los diseños de
investigación; ahora en búsqueda de seguridad estadística, se han
establecido procedimientos que conjugan amplitud del universo (infinito o no),
nivel de confianza adoptado, error de estimación, desviación típica par
100
compensar las deficiencias de validez. Sierra (1988), citado en Hurtado y
Toro (2007), establece dos fórmulas o varios tipos de tablas prontuarios para
establecer un tamaño adecuado de la muestra según se trate de universos
finitos o infinitos:
Detalla Rodríguez (2005), el objetivo primordial al determinar el tamaño
de la muestra es obtener información representativa, válida, confiable, al
mismo costo; el tamaño de la muestra está relacionado con los objetivos del
estudio, los recursos y el tiempo que se dispone; se puede determinar con
base en la fórmula para estimar la varianza:
101
La fórmula del tamaño de la muestra de acuerdo con el tipo de
población, puede ser infinita (cuando no se sabe el número exacto de
unidades del que está compuesta la población) y finita (cuando se conoce
cuantos elementos tiene la población).
5.2.4. Tipo de muestreo
Sintetiza Grande y Abascal (2011), si en la población se pueden
diferenciar grupos cuyo comportamiento respecto de la variable sea
homogéneo en cada grupo y diferente de un grupo a otro, se puede lograr
mayor precisión obteniendo una muestra estratificada (muestreo aleatorio
estratificado); en el diseño del muestreo estratificado no sólo hay que decidir
102
sobre el tamaño de la muestra (n), sino también por el reparto por estratos
(nh), este reparto se denomina afijación; en la afijación proporcional, el
tamaño muestral de cada estrato, está en proporción al tamaño del estrato.
Por otra parte en, Tamayo y Tamayo (2004), una muestra es
estratificada cuando los elementos de la muestra, son proporcionales a su
presencia en la población; la presencia de un elemento en un estrato excluye
su presencia en otro, en la muestra estratificada la presentación de los
elementos en los estratos, es proporcional a su representación en la
población.
6. TÉCNICAS E INSTRUMENTOS DE RECOLECCIÓN DE
INFORMACIÓN
La técnica de recolección de información se presenta
metodológicamente para asegurar la validez y confiabilidad de los datos; se
empleó la técnica de encuesta en la obtención de información primaria; el
instrumento adoptado es un cuestionario, que contiene 21 preguntas
103
respecto de la variable sobre transferencia de conocimiento que se va a
medir y que ha sido diseñado para generar los datos necesarios que
permitirán alcanzar los objetivos de la investigación. Por otra parte, se
empleó la escala de likert con cinco opciones de respuesta, para medir el
conocimiento, la actitud, o la práctica que se tiene en relación al objeto de
valoración.
Alude Yuni y Urbano (2006), que en el campo de la metodología de la
investigación científica el concepto de técnicas de recolección de información
alude a los procedimientos mediante los cuales se generan informaciones
válidas y confiables para ser utilizadas como datos científicos, la función de
las técnicas es la observación o registro de los fenómenos empíricos, registro
a partir de los cuales se elabora información que permite generar modelos
conceptuales (en lógica cualitativa) o contrastarla con el modelo teórico
adoptado (en la lógica cuantitativa); estas técnicas de recolección, se
presentan metodológicamente como una serie de prescripciones o
recomendaciones para asegurar la validez y confiabilidad de los datos.
Anota Lerma (2004), para obtener información sobre las variables se
utilizan instrumentos tales como la observación, documentos existentes, los
cuestionarios, las entrevistas entre otros; entonces, una vez diseñada y
operacionalizada la variable, se tiene en cuenta sus indicadores, para que
con base en ellos, se formulen las preguntas respectivas o por medio de la
aplicación de uno de los instrumentos mencionados, se consiga la
104
información correspondiente.
Narra García (2012), la encuesta es una de las principales técnicas
cuantitativas empleada habitualmente en la obtención de información
primaria; entre las etapas de elaboración de la encuesta se encuentra, la
determinación de objetivos, determinación del tipo de encuesta (personal,
postal, telefónica y por internet), el diseño del cuestionario, la codificación, el
muestreo, el trabajo de campo, la tabulación, el análisis e informe.
Relatan Grande y Abascal (2009), la encuesta es una técnica de
recogida de información que consiste en la formulación de unas preguntas a
las personas que deben responderlas sobre la base de un cuestionario; las
encuestas se pueden clasificar en personales y postales; las primeras, son
un encuentro entre dos personas, en el cual una de ellas obtiene información
proporcionada por la otra sobre la base de un cuestionario; en las segundas,
la recogida de la información se efectúa mediante un cuestionario que se
envía a una persona que lo cumplimenta y lo devuelve por correo; junto a la
encuesta se remite una carta de presentación, las instrucciones para su
cumplimentación y un sobre franqueado para devolver el cuestionario.
Menciona Yuni y Urbano (2006), el instrumento es el mecanismo o
dispositivo que utiliza el investigador para generar la información; estos
instrumentos pueden ser aparatos mecánicos, los formularios de un
cuestionarios, una guía de observación estructurada, una cámara de video
etcétera, en algunos casos los instrumentos amplifican las capacidades
105
perceptivas del investigador, en otros contienen los estímulos o reactivos
para que se genere la información, mientras que otros instrumentos facilitan
el registro de los sucesos.
Opina Gómez (2006), sin el instrumento de medición o de recolección
de datos no hay observaciones que pueda clasificarse metódicamente, lo
antedicho implica dos cuestiones importantes; la primera, que el foco de la
atención es la respuesta observable, el referente empírico sea una respuesta
marcada en un cuestionario, una conducta grabada en un video, o una
respuesta dada a un entrevistador.
Y la segunda, que el interés se sitúa en el concepto subyacente no
observable que es representado por la respuesta observada; un instrumento
de medición adecuado es aquel que registra datos observables que
representan verdaderamente los conceptos o las variables que el
investigador tiene en mente. Ver anexo A. Instrumento de validación.
Considera Bernal (2006), el cuestionario es un conjunto de preguntas
diseñadas para generar los datos necesarios para alcanzar los objetivos del
proyecto de investigación; se trata de un plan formal para recabar
información de la unidad de análisis objeto de estudio y centro del problema
de la investigación; un cuestionario consiste en un conjunto de preguntas
respecto de una o mas variables que se van a medir.
Apunta Tamayo y Tamayo (2004), el cuestionario constituye una forma
concreta de la técnica de observación, logrando el que el investigador fije su
106
atención en ciertos aspectos o se sujete a determinadas condiciones; el
cuestionario contiene los aspectos del fenómeno que se consideran
esenciales; permite, a demás, aislar ciertos problemas que nos interesan
principalmente; reduce la realidad a cierto número de datos esenciales y
precisa el objeto de estudio. Ver anexo B. Instrumento de recolección:
cuestionario.
Borda, Tuesca y Navarro (2009), infieren que las escalas tipo Likert son
una estrategia empleada cuando se desea establecer niveles de satisfacción,
esta herramienta contempla una serie de ítems presentados en forma de
afirmaciones o juicios de valor ante los cuales se mide el conocimiento la
actitud o la práctica que se tiene en relación al objeto de valoración; a cada
afirmación que se le presenta al sujeto de observación se le pide que sitúe su
posición en una de las opciones de respuesta y cada respuesta se le signa
un valor numérico; así, el sujeto obtiene una puntuación respecto a la
afirmación, luego al final se totaliza la puntuación obtenida en relación con
las afirmaciones presentadas.
Especifica Grasso (2006), el método likert supone elaborar un conjunto
preliminar de preguntas de opinión, poner a prueba unos ítems,
administrándolos a una muestra de sujetos en un estudio piloto, para
determinar sus características psicométricas; seleccionar los ítems de mejor
funcionamiento y constituir con ellos la versión final de la escala ; incorporar
luego la escala al cuestionario que se utilizará en la encuesta.
107
7. VALIDEZ Y CONFIABILIDAD DEL INSTRUMENTO
Con la validez del instrumento se obtuvo una idea de la variable sobre
transferencia de conocimiento y se evaluó si las preguntas del cuestionario
en realidad le medían; por lo tanto, para la validez de contenido, el
cuestionario se sometió al juicio de siete expertos en la línea de desarrollo
científico y tecnológico, así como de metodología de la investigación.
En cuanto a la confiabilidad, se aplicó una prueba piloto en la
Fundación ESESCO, que ofrece el programa de contaduría pública en el
Departamento del Cesar – Colombia, dirigida a 40 personas entre
estudiantes, profesores y administrativos, para identificar y eliminar posibles
defectos de contenido del cuestionario. Se utilizó la fórmula del coeficiente de
alfa de Cronbach para estimar la consistencia interna de la prueba, la cual
arrojó 0.85, puntaje que demuestra una alta fiabilidad del instrumento:
108
Conforme a Hernández, Fernández y Baptista (2006), toda medición o
instrumento de recolección debe reunir los siguientes elementos:
confiabilidad y validez; la confiabilidad de un instrumento de medición se
refiere al grado en que su aplicación repetida al mismo sujeto u objeto
produce iguales resultados; mientras que la validez en términos generales,
se refiere al grado en que un instrumento realmente mide la variable que
pretende medir; la validez de un instrumento de medición se evalúa sobre la
base de todos los tipos de evidencia, cuanto mayor evidencia de validez de
contenido, de criterio o de constructo tenga un instrumento de medición, éste
se acercará más a representar la variable que pretende medir.
Acorde a Bernal (2006), un instrumento de medición es válido cuando
mide aquello para lo cual está destinado. La validez indica el grado con que
pueden inferirse conclusiones a partir de los resultados obtenidos; la validez
puede examinarse desde diferentes perspectivas, validez general que se
relaciona con tener una idea clara de la variable que desea medirse y evaluar
si las preguntas o los artículos del instrumento en realidad la miden.
Validez de contenido, grado en que representa el universo de la
variable objeto de estudio; validez de criterio, se refiere al juicio que se hace
al instrumento en cuanto a la capacidad del mismo para predecir la variable
objeto de la medición; validez de constructo, el instrumento se juzga respecto
del grado en que una medición se relaciona consistentemente con otras
mediciones sobre conceptos que están midiéndose.
109
Por otro lado, la confiabilidad de un cuestionario por ejemplo, se refiere
a la consistencia de las puntuaciones obtenidas por las mismas personas,
cuando se las examina en distintas ocasiones con los mismos cuestionarios;
es decir, el instrumento arroja medidas congruentes de una medición a la
siguiente.
Esclarece Gómez (2006), en la prueba piloto se analiza si las
instrucciones se comprenden o los ítems funcionan de manera adecuada; los
resultados se usan para calcular la confiabilidad y de ser posible, la validez
del instrumento de medición; la prueba piloto se realiza con una pequeña
muestra (inferior a la muestra definitiva); luego de la prueba piloto el
instrumento de medición preliminar se modifica, ajusta o mejora.
Dilucida García (2004), la prueba piloto o sondeo, es una aplicación
experimental del cuestionario, lo más cercano la encuesta real, pero se
aplica solo a un pequeño grupo, los sujetos deben tener la misma distribución
de edades, características, nivel escolar y cualquier otra propiedad relevante
para el estudio; la finalidad de la prueba es comprobar si el cuestionario
satisface los objetivos, está orientado al sujeto, favorece la comunicación y
se comprende las preguntas entre otros asuntos. Ver anexo C. Prueba Piloto.
Ilustra Llaneza (2009), que el coeficiente alfa de Cronbach determina la
consistencia interna de un test en función de dos componentes: el número de
ítems o longitud y la proporción de varianza total de la prueba debida a la
covarianza entre sus partes (ítems); toma valores entre (0) y (1), cuanto más
110
se acerca el índice al extremo 1, mejor es la fiabilidad, considerando un
fiabilidad respetable a partir de 0,80. Ver anexo D. Matriz de tabulación para
determinar la confiabilidad: cuestionario.
Formula Roscoe (2003), en el coeficiente alfa Cronbach, K es el
número de reactivos, Si2 la varianza de las calificaciones en el reactivo i y
St2 la varianza de las calificaciones totales de la prueba; el coeficiente es
una fórmula general para estimar la confiabilidad de una prueba que consta
de reactivos en los cuales pueden signarse calificaciones de distinto peso a
respuestas diferentes; se define como:
8. TÉCNICAS DE ANÁLISIS Y PROCESAMIENTO DE DATOS
Una vez recolectada la información, se procedió a ordenar los datos
recopilados, a través de procedimientos de la estadística descriptiva, por
tanto se diseñó una tabla de distribución de frecuencia en Excel de filas por
columnas, donde se describe la frecuencia relativa y porcentual de los datos,
para una mayor comprensión de los resultados se procedió a elaborar un
baremo que tomó en cuenta el número total de ítems o preguntas del
cuestionario. Ver cuadro 4.
111
Cuadro 4
Baremo
Fuente: Elaboración propia (2013).
Sugiere Llinás (2006), la estadística descriptiva, se compone de
aquellos métodos que incluyen técnicas para recolectar, presentar, analizar e
interpretar datos; tiene como función el manejo de los datos recopilados en
cuanto se refiere a su ordenación o presentación, para poner en evidencia
ciertas características en forma objetiva o útil; en este sentido investiga los
métodos, procedimientos y reglas, para que el manejo de los datos sea
eficiente, la información resulte confiable, se exprese correctamente ciertos
contenidos en un lenguaje que permita que cualquier persona los comprenda
y se pueda establecer comparaciones.
Enseña Hanke (2006), el propósito de los procedimientos de la
estadística descriptiva es explicar de forma breve una amplia colección de
medidas, con unos cuantos valores fundamentales; el resumen mas común
se obtiene al promediar los valores; en estadística el proceso de promediar
usualmente se logra al calcular la media, la cual implica sumar todos los
112
valores y dividir entre el número de valores. La media de la muestra (con
barra) se calcula utilizando la ecuación:
Propone Anderson, Sweeney y Williams (2008), las distribuciones de
frecuencia relativa y de frecuencia porcentual para datos cuantitativos se
definen de la misma forma que para los cualitativos; la frecuencia relativa es
el cociente, respecto al total de observaciones de las observaciones que
pertenecen a una clase, si el número de observaciones es n; mientras que la
frecuencia porcentual de una clase, es la frecuencia relativa multiplicada por
100:
Plantea Weiers (2006), la tabla de distribución de frecuencia es una
tabla que divide los valores de los datos en clases y presenta la cantidad de
los valores observados en cada clase; otro enfoque útil para expresar los
datos es la tabla de distribución de frecuencias relativas que describe la
113
proporción o el porcentaje de los datos que caen dentro de cada categoría.
Entiende Calvo (2006), que el baremo es una tabla de relación donde a
una serie de valores se le signa una magnitud. Por su parte, Braunstein,
Pasternac, Benedito y Saal (2003), expresan que el baremo es un patrón de
comparación que define la normalidad estadística; que el baremo de un test,
es el resultado que se espera de una persona de determinada edad y que
pertenece a determinado grupo, construido según procedimientos
estadísticos que a partir de muestras representativas determinan cuales son
los rendimientos típicos o promedios de ese grupo que servirá de patrón de
comparación; es lo que constituirá la norma o normalidad estadística.
9. PROCEDIMIENTO DE LA INVESTIGACION
Para la realización de la investigación se procederá a ejecutar los
siguientes pasos:
1) Revisión bibliográfica sobre el contexto técnico de la variable
2) Planteamiento del problema
3) Sistematización del problema
4) Definición de objetivos (General y específicos)
5) Justificación de la investigación
6) Delimitación de la investigación
7) Despliegue de los antecedentes de la variable
114
8) Explicación de las bases teóricas
9) Definición del sistema de variables
10) Elaboración del cuadro de operacionalización de la variable
11) Mención del tipo de investigación
12) Referencia del diseño de la investigación
13) Delimitación de la población
14) Establecimiento de la muestra y tipo de muestreo
15) Elaboración del instrumento primera versión
16) Aplicación de la prueba piloto
17) Rediseño del instrumento en su versión definitiva
18) Comprobación de la validez y confiabilidad del instrumento
19) Aplicación del instrumento en las universidades con asiento en
el Departamento del Cesar que ofrecen el programa de contaduría pública
20) Análisis de los datos y confrontación con la teoría
21) Discusión y comunicación de los resultados
22) Elaboración de las conclusiones
23) Elaboración de las recomendaciones
24) Diseño de lineamientos