Contratos informáticos

PC modelo “años 30?. Contratos informáticos

La adquisición o arrendamiento de equipos informáticos presenta, con demasiada frecuencia, licitaciones con alusiones a determinadas marcas y especificaciones, propias de fabricantes concretos. Se trata los famosos Pliegos de Prescripciones Técnicas «a medida» que tanto perjudican la competencia y la transparencia de la contratación.

Presentamos a continuación un interesante documento destinado a combatir tal conducta administrativa desviada. Son recomendaciones relativas a determinadas cautelas que deben tenerse en cuenta por los órganos de contratación a la hora de redactar los PPT relativos a la adquisición de material informático. Además, incluye criterios de valoración ad hoc para el material informático.

Con la anterior legislación, el Informe 62/07, de 26 de mayo de 2008 de la Junta Consultiva de Contratación Administrativa efectuó una interesante recomendación sobre aplicación de marcas comerciales en la definición de las especificaciones técnicas en los contratos de cuyo objeto es la compra o el arrendamiento de ordenadores y demás equipos informáticos.

En fin, se trata de establecer unas especificaciones técnicas objetivas y neutrales y de evitar favorecer determinados productos en detrimento de otros.

RECOMENDACIONES TÉCNICAS APLICABLES A LA CONTRATACIÓN DE EQUIPOS INFORMÁTICOS

Junio de 2008. Dirección General para el Impulso de La Administración Pública. SDG de Coordinación de Recursos Tecnológicos (MAP). Estas recomendaciones han sido elaboradas con la colaboración de distintos expertos de la Administración General del Estado.

1. INTRODUCCIÓN

La redacción de estas recomendaciones se hace al amparo de las competencias que, en materia de contratación, tiene la Comisión Permanente del Consejo Superior de Administración electrónica (CPCSAE). Son motivadas por los siguientes hechos:

a) La Comisión Europea ha detectado la necesidad de que el Reino de España, al igual que ya han hecho otros estados miembros, dicte unas instrucciones generales que sirvan para evitar la utilización de especificaciones técnicas discriminatorias en los contratos de compra o el alquiler de equipos informáticos.

b) El nuevo marco jurídico establecido por la Ley 30/2007 de 30 de octubre de contratos del sector publico (LCSP), que refuerza, entre otros, los principios de libertad de acceso a los licitadores y la no discriminación e igualdad de trato entre los candidatos y que incorpora, en su artículo 101.8, las consideraciones expuestas en el Dictamen de la Comunidad europea en relación con el uso de marcas comerciales en los pliegos de prescripciones técnicas (PPT).

En consecuencia, se emiten las recomendaciones aplicables a la preparación de los expedientes de contratación que, en materia de Tecnologías de la Información (TI) se ajusten al ámbito y alcance que se determina en los puntos siguientes.

2. ÁMBITO DE APLICACIÓN DE LAS RECOMENDACIONES

El ámbito de las recomendaciones queda limitado a la redacción de los pliegos de aquellos contratos cuyo objeto incluya microprocesadores de los que habitualmente se integran en Ordenadores personales y ordenadores portátiles.

3. ALCANCE DE LAS RECOMENDACIONES

En función de las diversas materias sobre las que versan estas consideraciones, se han estructurado dos líneas de trabajo diferenciadas con el alcance que se define a continuación:

– Recomendaciones relativas a las especificaciones técnicas de los contratos.
– Otras recomendaciones relacionadas con la valoración de ofertas presentadas este tipo de contratos.

3.2 Recomendaciones relativas a las especificaciones técnicas de los contratos.

Recomendación 1. Definición del objeto del contrato.

Para definir las características técnicas de los equipos informáticos objeto del contrato deben describirse las prestaciones que se desean obtener.

A tales efector, la descripción del rendimiento de los microprocesadores y de los sistemas en que estos microprocesadores se integran se debe efectuar utilizando como referencia los resultados de pruebas de evaluación desarrolladas para medir el comportamiento de los mismos (benchmarks).

Nota aclaratoria: Para incluir en los pliegos de prescripciones técnicas (PPT), el uso de benchmarks como elemento de referencia, consultar el anexo técnico.

Recomendación 2. Arquitectura.

No deben establecerse condiciones en relación con la arquitectura del microprocesador.

Nota aclaratoria: La mención a la arquitectura x86 no es limitativa de la concurrencia, en el ámbito de ordenadores personales y ordenadores portátiles, ya que ha sido adoptada por los principales fabricantes, Intel y AMD de los microprocesadores instalados en este tipo de máquinas. Por este mismo motivo, el uso de esta referencia técnica no aporta ninguna mejora sustancial a las especificaciones de los contratos.
No obstante, si se contempla la adquisición de “clientes ligeros”, es recomendable aludir a esta arquitectura para evitar la oferta de soluciones propietarias.

Recomendación 3. Componentes.

No debe exigirse la existencia de componentes determinados, si previamente no se ha verificado que dicho elemento es un estándar que puede ser integrado por cualquier fabricante en su configuración.

Si fuera ineludible hacer mención a un componente determinado es de especial relevancia que se utilice la denominación genérica del mismo, es decir, aquella que se corresponda con el estándar reconocido de la implementación de una cierta funcionalidad.

Nota aclaratoria: Puede ser adecuado aludir al nombre genérico “Bus de datos”, sin embargo mencionar el FSB (Front Side Bus) introduce discriminación, ya que este último es una implementación particular del “Bus de datos”, desarrollada por un fabricante concreto.

Recomendación 4. Capacidad o rendimiento de los componentes.

No deben incluirse requisitos mínimos en relación con la capacidad o rendimiento de un componente determinado sin verificar que este nivel de exigencia no impide la concurrencia de soluciones de todos los fabricantes.

Nota aclaratoria: la alusión a capacidades mínimas para algunos componentes resulta discriminatoria. Por ejemplo, incorporar como requisito una capacidad determinada de memoria caché, puede limitar la concurrencia, ya que, este elemento, a pesar de ser implementado por todos los fabricantes, lo es con distintas capacidades y configuraciones, sin que estas diferencias condicionen necesariamente el rendimiento global de la máquina.

Recomendación 5. Requisitos de otros componentes externos al microprocesador.

Las referencias a otros elementos complementarios al microprocesador que formen parte de la configuración global del sistema, pueden expresarse mediante requisitos mínimos cuantitativos, tales como, capacidades de disco, pulgadas del monitor, etc…. . Las mejoras ofrecidas, por encima de los mínimos exigidos en los pliegos, podrán ser consideradas como criterios de valoración de ofertas.

Nota: No obstante, debe entenderse que, en algunos casos, la descripción cuantitativa de componentes, tales como, tarjetas gráficas, sistemas de E/S, etc… no garantizan un rendimiento determinado del sistema global, por lo que si son elementos esenciales deben definirse mediante referencias a benchmarks que valoren el rendimiento específico de dicho componente en función del entorno en el que haya sido integrado.

4. RECOMENDACIONES SOBRE LA METODOLOGÍA Y LOS CRITERIOS DE VALORACIÓN DE OFERTAS.

Una vez consideradas y aplicadas las recomendaciones relativas al uso de pruebas de evaluación como referencia para definir las capacidades de los sistemas, es necesario establecer unas normas metodológicas que permitan valorar las diferentes propuestas en condiciones de igualdad y aplicando los principios de transparencia y no discriminación aludidos en la Ley 30/2007 de 30 de octubre, de Contratos del Sector Público.

En este sentido, es conveniente considerar las normas siguientes, tanto en lo relativo a la metodología como a los criterios de valoración de ofertas.

4.1 Metodología de valoración

Se recomienda encarecidamente que en los pliegos particulares o en la documentación singular que regule la selección del contratista se determinen, al menos, la siguiente información:

? El árbol de criterios que se utilizarán para valorar las ofertas, desarrollado en todos sus niveles.
? La ponderación otorgada a cada criterio, referida a cien.
? Los umbrales de satisfacción o valores mínimos para cada uno de los criterios y que se considerarán requisitos esenciales, por cuanto su incumplimiento significará la desestimación de la oferta.
? En su caso, umbrales de saciedad o valores máximos que serán tomados en consideración para al valorar la mejora ofertada.
? Escala de valores que se utilizará para cuantificar los criterios cualitativos determinando la correspondencia de cada valor con la descripción de todos los comportamiento posibles o valorables que puedan asociar a dicho criterio.

Como técnica de decisión, se recomienda la utilización del Sistema de Soporte a la Decisión SSD-AAPP promovido por el Consejo Superior de la Administración Electrónica y en particular se utilizará el Método de Ponderación Lineal con método de Normalización Fracción del Ideal.

4.2. Criterios de valoración

4.2.1. Valoración del rendimiento del Sistema.

Para una correcta valoración del rendimiento del Sistema es necesario incluir en los pliegos de prescripciones técnicas la siguiente información:

? Identificar la prueba o la combinación de pruebas que se van a utilizar como referencia para comparar el rendimiento de la máquina. Fijar una puntuación mínima para cada una de ellas que se entenderá como requisito mínimo del contrato, teniendo en cuenta el uso estimado del sistema y el presupuesto disponible.
? Se exigirá al licitador que someta a dicha/s prueba/s la configuración ofertada y que aporte la información técnica original que acredite la veracidad de los datos aportados, así como, del seguimiento estricto de las “reglas de uso” definidas por el fabricante de la prueba, como metodología para la ejecución de la misma.
? Se requerirá a los licitadores que, para ejecutar las pruebas de rendimiento, recreen el entorno operativo descrito en el pliego de prescripciones técnicas y, en su caso, que instalen cualquier otro software que vaya a ser suministrado como parte del contrato.

Opcionalmente, la Administración contratante podrá ejecutar las pruebas de valoración del rendimiento de las configuraciones ofertadas, bien para eximir a los oferentes de dicha obligación, bien para comprobar la fiabilidad de los datos aportados en las ofertas. A tales efectos, se deberá prever la adquisición de las licencias del benchmark usado como referencia y solicitar a los licitadores que proporcionen una máquina igual a la ofertada para ser sometida a dichas pruebas. En todo caso, estas circunstancias deberán quedar reflejadas en los pliegos particulares que regulen el contrato, así como las implicaciones que, en su caso, repercutan en el licitador.

El valor resultante de dichas pruebas, serán considerado directamente para valorar el criterio correspondiente al rendimiento del sistema.

Cuando se utilice una combinación de pruebas de rendimiento, deben considerarse criterios de valoración independientes para cada una de ellas. Nunca deben extraerse puntuaciones medias para combinar los resultados de diversas pruebas, ya que cada una de dichas comparativas se ocupan de asuntos diferentes y utilizan diversas unidades de medida.

ANEXO TÉCNICO

UTILIZACIÓN DE PRUEBAS DE RENDIMIENTO –BENCHMARKS- EN LOS PLIEGOS DE PRESCRIPCIONES TÉCNICAS.

1. La Referenciación

La “Referenciación”, también conocida como “benchmarking”, es el conjunto de técnicas usadas para comparar el rendimiento de diferentes sistemas informáticos.

Para garantizar que los resultados obtenidos, las medidas del rendimiento de los sistemas deben efectuarse bajo las siguientes condiciones:

? Todos los sistemas se han de someter a la misma carga.
? Las medidas de rendimiento han de ser reproducibles, indicando las condiciones en que se han obtenido: Descripción de los componentes elementales del sistema -procesador, frecuencia de funcionamiento, memoria, caché, …, sistema operativo, juego de instrucciones, etc…- y carga a la que se ha sometido en un determinado escenario.

Como resultado de someter a distintos sistemas a una misma prueba de rendimiento, se puede decir que el computador que la ejecuta en el mínimo tiempo es el más rápido.

Siempre debe evitarse el confundir el rendimiento del sistema con el rendimiento del procesador.

También es importante considerar que no todos los resultados más altos en la ejecución de la prueba, deben ser entendidos como favorables. Por ejemplo:

– En el caso de aquellas pruebas que miden el rendimiento general al ejecutar ciertas aplicaciones, como las que se contemplan en los benchmarks Sysmark 2007 Preview y MobileMark 2007, debe entenderse que a mayor resultado mejor es el rendimiento.

– Por el contrario, en el caso de una prueba de rendimiento que esté midiendo el tiempo que tarda un sistema en ejecutar una aplicación, como por ejemplo, decodificación de archivos MP3, cuanto menor sea la puntuación mejor rendimiento.

También resulta muy importante afirmar que el resultado de las comparativas nos permite calibrar el rendimiento general de un sistema informático (esto es totalmente cierto en las ‘comparativas a nivel del sistema’ como, por ejemplo, las desarrolladas por BAPCo*) o, como mínimo, el rendimiento combinado de la CPU, la memoria y el compilador (siendo éste el caso de las comparativas que evalúan una ‘gran potencia informática’, como las desarrolladas por el SPEC*). En vista de ello, las comparativas sólo pueden ofrecer una valoración indirecta y no totalmente precisa del rendimiento de la CPU integrada en el sistema informático comparado.

2. Ventajas de los benchmarks

La utilización de pruebas de rendimiento tomadas como referencia para establecer los requisitos mínimos en los contratos de compra o alquiler de procesadores aporta beneficios tales como:

? No establece ningún tipo de discriminación
? Aumenta la concurrencia de ofertas
? Favorece los ahorros en los costes de la inversión
? Simplifica la elaboración de los pliegos de prescripciones técnicas
? Racionaliza la comparación entre sistemas al utilizar unidades de medida homogéneas

3. Clasificación básica de los benchmarks

A la hora de elegir el benchmark o conjunto de benchmarks que se utilizarán como referencia en una organización se debe considerar que, en función de las distintas características de los equipos a probar y de los objetivos o circunstancias que se den en cada momento, se puede hacer uso de distintos tipos de pruebas. Las más frecuentes son:

a) Benchmarks de aplicación que miden el rendimiento del ordenador mediante el testeo de cargas de trabajo que reproducen escenarios reales.

? Sus resultados son más fiables
? Son difíciles de diseñar y de ejecutar labor de la que tiene que encargarse el comprador.
? Se pueden aplicar a un número muy limitado de equipos

b) Benchmarks sintéticos. Miden el rendimiento ejecutando un conjunto de procesos (funciones matemáticas, iteraciones, etc…, que generen cargas en diversos componentes), cuyo único objetivo es evaluar el comportamiento de los sistemas.

? Son fáciles y rápidos de realizar
? Existen varias organizaciones independientes de reconocimiento internacional que los ejecutan
? Se aplican a un gran número de equipos
? Se pueden consultar los resultados oficiales de las pruebas

Las características esenciales de unas buenas pruebas para evaluar y comparar el rendimiento de un sistema deberían ser:

? Relevancia: las autoridades contratantes deberían elegir una comparativa o una combinación de comparativas que evalúen el rendimiento mediante unas pruebas que representen, de una manera más aproximada, el uso real y diario que pretenden realizar con los equipos que desean adquirir.

Si la prueba no es relevante, se corre el riesgo de adquirir un equipo diferente del que se necesita.

? Regulación y reconocimiento: las autoridades contratantes deberían preferir las comparativas sobre rendimiento desarrolladas y reguladas por consorcios bien reconocidos en el sector (por ejemplo, los organismos independientes y sin ánimo de lucro para estandarización con amplia representación en el sector). Estas comparativas son el resultado de un diálogo abierto y próspero y tienen unas metodologías bien definidas, además de ser generalmente objetivas, imparciales, fiables, reproducibles y aceptadas de forma generalizada.

Las comparativas desarrolladas por intereses privados pueden estar influenciadas por determinadas empresas de ordenadores, convirtiéndolas en pruebas insuficientemente representativas y, a veces, sesgadas

? Actualización: Las autoridades contratantes siempre deberían utilizar la versión más reciente disponible de cualquier comparativa. Las comparativas para evaluar el rendimiento se actualizan constantemente, incorporándose periódicamente nuevas pruebas para ajustarse al ritmo del desarrollo y a la innovación incesante en el sector de la informática. Una comparativa no actualizada pierde su capacidad para evaluar el rendimiento de forma efectiva, ya que no va a tener en cuenta la diferencia en el funcionamiento de un equipo cuando se le incorpora nuevas prestaciones (como, por ejemplo, las funciones para multithreading y multitasking).

Pero lo más importante es que una comparativa no actualizada podría perder su capacidad para ofrecer una comparación entre dos o más sistemas informáticos, impidiendo reflejar de manera efectiva y genuina sus auténticos rendimientos. Si no se tienen en cuenta las prestaciones innovadoras de un sistema informático con mejor rendimiento en la comparativa, no se podrá reconocer la mejora del rendimiento de dicho equipo cuando se le compare con otro sistema que, aunque ofrezca un rendimiento verdadero inferior, podría conseguir una puntuación más alta si utilizamos una comparativa anticuada. En resumidas cuentas, las comparativas no actualizadas pueden discriminar los productos más recientes, más innovadores y con mejor rendimiento.

4. Factores influyentes en la referenciación

El resultado de las pruebas de rendimiento a que se somete un sistema está determinado, además de por la carga de trabajo o estrés a la que sea sometido, a todo el conjunto de elementos que lo componen y a la forma en que todos ellos cooperan para lograr la ejecución de dicha prueba. Los componentes más relevantes en el resultado de un benchmark son:

– Elementos hardware de cada equipo: Procesador, placa base y chipset, memoria principal, discos, …
– Configuraciones y optimizaciones que mejoren la cooperación entre componentes. Por ejemplo, balanceo de las memorias caché y virtual.

– Software base: Sistema operativo, compiladores, etc..

5. El uso a benchmarks en los PPT

Para incorporar en los pliegos el uso de pruebas de evaluación, como referencia para expresar los requisitos de un sistema, se pueden considerar las siguientes alternativas:

– Consultar las listas actualizadas de los creadores de benchmarks y escoger la que se desee usar como referencia para definir los requisitos mínimos del objeto del contrato. En su defecto solicitar a los fabricantes o distribuidores los valores obtenidos por sus configuraciones.
– Si no se conoce la configuración deseada, se puede consultar el benchmarck de las máquinas actuales y solicitar en el pliego que se mejore ese rendimiento en un x%.
– Se pueden adquirir licencias de pruebas comercializadas y utilizarlos en la valoración de las ofertas, indicando esta circunstancia en el PPT.
– Se pueden desarrollar una batería de pruebas de carga a partir de nuestro trabajo real (benchmark de aplicación) y utilizarlo, en la fase de valoración, para medir el comportamiento de las máquinas ofertadas.

6. Benchmarks más reconocidos

En función del rango de los sistemas que se deseen especificar o de las funcionalidades a que vayan a estar dedicados, se deben seleccionar las pruebas que sean más adecuadas para medir sus prestaciones. Podemos encontrar en el mercado distintas organizaciones de reconocido prestigio en el diseño, producción y ejecución de benchmarks destinados a diferentes rangos de máquinas. Algunos ejemplos son:

6.1. BAPCo (Business Application Performance Corporation)

Es una organización (http://www.bapco.com), en la que intervienen muchas empresas: Toshiba, Microsoft, IBM, Dell, HP, Intel, AMD, ZDNet, …

Sus principales benchmarks están destinados a la Evaluación de ordenadores personales y ordenadores portátiles. Son:

? SYSmark 2007
? MobileMark 2007
? WebMark 2004

Los benchmarks de BABCo son todos Benchmarks de aplicación. Reproducen el comportamiento de un usuario tipo utilizando aplicaciones reales

Webmark 2004 se ha incluido como parte de Sysmark, por lo que sólo se recomienda para sistemas operativos antiguos como Windows NT o Windows 2000

Características del Benchmark SYSMark 2007 de BAPCo.

Sysmark 2007 evalúa el rendimiento de un sistema informático con un sistema operativo Microsoft Windows XP* o Microsoft Windows Vista* empleando los programas informáticos más utilizados por los usuarios corporativos.

a) Productividad de oficina: evalúa el rendimiento de las tareas normales de las aplicaciones que pueden utilizarse en oficinas como, por ejemplo, las de comunicación, procesamiento de datos, gestión de proyectos y manipulación de archivos;

? Office Productivity
? Microsoft* Excel 2003
? Microsoft* Outlook 2003
? Microsoft* PowerPoint* 2003
? Microsoft* Word 2003
? WinZip* Computing WinZip 10.0
? Microsoft* Project* 2003

b) Modelos en 3D: evalúa la creación de presentaciones arquitectónicas para proyectos del sector de la construcción, con animación aérea e imágenes fotorrealistas del edificio ya terminado;

? 3D Modeling
? Discreet* 3dsMax* 8.0
? SketchUp* 5.0

c) Aprendizaje electrónico (E-learning) evalúa la creación de material en la Red, integrando imágenes, videos y audio en una página web diseñada para facilitar la formación; y/o E-Learning
? Adobe* Illustrator* CS2
? Adobe* Photoshop* CS2
? Macromedia* Flash* 8
? Microsoft* PowerPoint* 2003

d) Creación de vídeo: evalúa la creación de video con efectos especiales e imágenes de diferentes fuentes (visualizando el vídeo en dos formatos: uno en baja resolución para su transmisión mediante streaming y otro en alta resolución para descargarlo).

? Video Creation
? Adobe* After Effects* 7.0
? Adobe* Illustrator* CS2
? Adobe* Photoshop* CS2
? Sony* Vegas* 7.0
? Windows* Media Encoder 9

Características del Benchmark MobileMark 2007 de BAPCo.

Evalúa la duración de la batería en ordenadores portátiles con sistema operativo Microsoft Windows XP o Microsoft Windows Vista, ofreciendo también una valoración del rendimiento para reflejar su empleo diario por parte de usuarios empresariales. El rendimiento se evalúa mientras el portátil no se encuentra enchufado a la corriente

Los cuatro escenarios de aplicación que ejecuta el MobileMark 2007 son

a. Productivity 2007: evalúa el rendimiento y la duración de la batería de un portátil cuando realiza actividades de productividad normales en una oficina como, por ejemplo, empleo y creación de documentos de texto, hojas de cálculo y presentaciones
b. Reader 2007: evalúa la duración de la batería de un portátil cuando se emplea para la lectura de libros en formato electrónico (e-books)
c. DVD 2007: evalúa la duración de la batería de un portátil cuando se emplea para visualizar un DVD; y/o
d. Wireless 2007: evalúa la duración de la batería de un portátil cuando se emplea en un entorno inalámbrico.
La comparativa MobileMark 2007 no ofrece una puntuación general, sino que proporciona distintas puntuaciones para cada uno de los cuatro escenarios anteriores

6.2 SPEC (Standard Performance Evaluation Corporation)

Esta organización, http://www.spec.org , está integrada por un gran número de empresas – HP, MIPS, Sun, IBM, Intel, DEC, entre otras.

Son muchos los benchmarks desarrollados por esta organización y están dirigidas a valorar distintos componentes. El más reconocido para probar servidores y estaciones de trabajo es el SPEC CPU2006.

El paquete SPEC CPU2006

Es un paquete que evalúa los componentes esenciales del sistema, en particular:
– Procesador
– Arquitectura de memoria
– Compilador

La carga del sistema se efectúa con dos partes diferenciadas:

? CINT2006: rendimiento en aritmética entera intensiva. Aplicable a entornos de gestión con algoritmos para valorar entre otros la carga de memoria y de entrada/salida. También es adecuado para valorar el manejo de formatos XML.
? CFP2006: rendimiento en aritmética de coma flotante intensiva. Aplicable a entornos científicos como modelos físicos y químicos y predicción meteorológica.

Nota: No se consideran componentes, tales como el subsistema de disco, sistema de red o tarjetas gráficas

6.3 TPC (Transactions Processing Performance Council)

Esta organización ( http://www.tpc.org ), diseña y ejecuta pruebas destinadas a medir el rendimiento de sistemas en entornos transaccionales (OLTP: on-line transaction processing).

Las pruebas están compuestas por varios programas

– TPC-App
– TPC-C
– TPC-H

Cuyos resultados se miden en peticiones procesadas por segundo (tps).

Estas pruebas están dirigidas a valorar aspectos tales como:

– Sistemas de bases de datos distribuidas
– Arquitectura cliente/servidor
– Servidores web

6.4 Otros benchmarks

6.4.1 Estaciones de trabajo gráficas:
• SPECviewperf 8,0
• SPECapc( form 3ds max6, for Maya 5, for pro/ENGINNER 2001, for Solid Edge v14, for SolidWorls 2003)

6.4.2 Servidores Java: SPECweb99 y SPECweb99_SSL

6.4.3 Clientes/Servidores Java: jAPPServer2004 y JBB2000
(http://www.spec.org)

6.4.4 Servicios de mensajería
• MMB3(http://www.microsoft.com/exchange/evaluation/performance/mmb3.asp
• Lotus NotesBench (http://www.notesbench.org/bench.nfs)

2 comentarios en “Contratos informáticos

  1. Pues está muy bien saber que existen recomendaciones tan detalladas, ahora que la práctica real de estas cuestiones es mucho más complicada. La garantía a ultranza de los criterios básicos de la contratación pública va (a veces) en detrimento de la eficiencia. Por ejemplo, si en un laboratorio tengo 20 puestos (de osciloscopios, por ejemplo) de una marca fruto de una antigua adquisición prístina y he de reponer 5, como no sean de la misma marca, me va a complicar un montón la redacción de guiones de prácticas (que habrán de tener dos versiones), la formación de los monitores, etc. Sin embargo, lógicamente, no puedo poner en el pliego la marca. El día a día plantea muchos casos análogos.

    Desde luego hay que cumplir con la legislación de las administraciones públicas (además desde el pleno convencimiento de su justicia), pero como no consigamos aunarlo con una eficacia razonable el propio gasto pierde sentido, y el sector público (la Universidad en este caso) empeora su función social. Me limito a señalar el problema, que se hace muy patente desde la «línea de producción» (PDI) y nos enfrenta a menudo con los gestores (PAS). Ojalá tuviera una solución general.

    Me gusta

  2. JMMU

    Estoy de acuerdo con lo que dice Joaquin Revilla.

    Era necesario -quizá desde mucho antes- contar con unas instrucciones con ésas pero lo cierto es que en la práctica se precisa homogeneidad en las nuevas adquisiciones de hardware respecto a las anteriores, y además no todas las equivalencias teóricas de hardware son tales realmente…al menos hasta donde mis conocimientos alcanzan.

    Me gusta

Gracias por comentar con el fin de mejorar

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.