Tecnología para digitalización de procesos (I). ERP, CRM y software empresarial

software empresarial

Nuestra firma, Reingeniería Digital, busca trabajar en esa zona intermedia en que se une la visión del negocio con las posibilidades que aporta la tecnolog´ía digital. En los artículos que en este blog hemos publicado en las últimas semanas (y meses), hemos adoptado una visión predominantemente de negocio, abordando en dos series consecutivas, las estrategias de mejora de procesos y los modelos de referencia.

 

Con este artículo iniciamos ahora una nueva serie en que vamos a ir examinando someramente diversas tecnologías, algunas ya tradicionales, y otras emergentes, que sirven para digitalizar, automatizar y, en general, mejorar los procesos de negocio.

 

El pasado ‘lejano’

 

Aunque en el mundo inicial de los mainframe o de desarrollos a medida locales, podemos dar por seguro que se realizó una cierta labor de digitalización de procesos, lo cierto es que inicialmente no se tenía esa visión transversal de la actividad que los procesos suponen ni tampoco la necesaria extensión de los sistemas de información como para cubrir grandes porciones de la actividad empresarial, Podemos entender, entonces, que más que procesos, lo que se digitalizaba eran tareas o actividades concretas.

 

La llegada del software empresarial: los ERP

 

El panorama cambió de forma importante con la llegada de los productos de software empresarial. Se trataba de grandes productos software que, aunque parametrizables, traían de serie incorporadas grandes dosis de funcionalidad de gestión de la empresa.

 

Con ello, no sólo recogían los principales datos a manejar en cualquier empresa sino que, además, y más importante para nosotros, venían con unos procesos de negocio ya incorporados. Estos procesos de negocio, se suponía, recogían las mejores prácticas del mercado o sector y, por tanto ahorraban a la empresa su revisión y le proporcionaban ‘sin esfuerzo’ los mejores procesos que pudiera desear.

 

Este tipo de productos se inició por los ámbitos empresariales más de back-office incluyendo la gestión contable y financiera, la gestión de recursos humanos y la producción. De ahí su nombre, ERP, Enterprise Respource Planning, siendo el producto más paradigmático el famoso SAP, pero también existían otros como Oracle Applications y los desaparecidos o absorbidos PeopleSoft o J.D Edwards. Existían versiones transversales y también los denominados ‘verticales’ por sector.

 

La extensión hacia los procesos de relación con cliente: el CRM

 

Con exactamente la misma filosofía que los ERP surgieron los CRM (Customer Relationship Management) cuya mayor diferencia era que se centraban en los procesos de relación con el cliente incluyendo la gestión de ventas, la automatización del marketing y la posventa.

 

Dado que se centraban en la relación con el cliente también solían incluir destacadas capacidades multicanal pero con especial foco en canal telefónico, incorporando tecnología ACD (Automatic Call Distribution) o IVR (Interactive Voice Response).

 

El representante más cualificado fue Siebel (posteriormente comprado por Oracle), aunque un movimiento lógico fue la extensión hacia el campo de CRM de productos ERP como SAP (iniciado con su mySAP), Oracle o Peoplesoft.

 

Luces y sombras

 

El éxito e impacto de este software empresarial: ERP y CRM ha sido y es innegable y supusieron un gran impulso a la digitalización (que entonces no se llamaba así) de muchas empresas, a la automatización de procesos (tampoco se solía llamar así) y a la disponibilidad de abundantes datos explotables mediante Business Intelligence.

 

Pero también han adolecido de ciertas problemáticas. Por una parte, las tarifas que aplicaban las consultoras que realizaban las parametrizaciones e implantaciones han sido tradicionalmente muy elevadas, a lo que pudimos un coste de licencia tampoco ‘frugal’. Se trata, por tanto, de soluciones, en general, caras.

 

Los productos de software empresarial están pensados para usarlos ‘como son’ por lo que las personalizaciones son costosas y, al apartarse del estándar ponen en peligro la evolución futura de las implantaciones personalizadas de las empresa.

 

Desde un punto de vista algo más estratégico y relacionado con los procesos, decir que, al adoptar unos procesos de negocio que aportaba la herramienta, la capacidad de diferenciación estratégica en esos procesos era mínima.

 

Además, los procesos, aunque formaban parte de la solución, solían ser más bien subproductos, sin una gestión directa.

 

Finalmente, se generaba unas altas y complejas necesidades de integración con otros sistemas que forzosamente necesitaban interaccionar con los ERP y CRM, convertidos en la columna vertebral de los sistemas de la empresa.

 

Siguientes tendencias

 

Aunque los sistemas de software empresarial están todavía muy presentes (y es previsible que se mantenga ese estado de cosas durante mucho tiempo), dos nuevas corrientes surgieron para superar algunas de sus problemáticas: las arquitecturas SOA (Service Oriented Architecture) y EAI (Enterprise Application Integration) para solventar la problemática de integración y los workflow y posteriormente los BPMS (Business Process Management Suites) para convertir a los procesos de negocio en ‘ciudadanos de primera’ en la gestión digital.

 

Pero de SOA y de los BPMS nos ocuparemos en futuros artículos.

 

Imagen: pixabay

 

 

Estrategias de mejora de procesos (V). Perspectiva de información

Perspectiva de información

En esta quinta entrega sobre estrategias de mejora de procesos, adoptamos la Perspectiva de información.

 

Se trata, como hasta ahora, de identificar una serie de estrategias más o menos generales para mejorar los procesos de negocio, siguiendo la tipología y aportaciones que se identifican en el libro ‘Fundamentals of Business Process Management‘ de Marlon Dumas, Marcello La Rosa, Jan Mendling y Hajo A. Reijers, pero haciendo una interpretación libre de ellas y aportando nuestra propia visión donde lo consideramos oportuno.

 

La perspectiva que hoy nos ocupa, la de información, es una perspectiva algo diferente a las anteriores porque toca muy de cerca no tanto (o no sólo) el proceso en sí como el o los sistemas que lo soportan. Por eso, en esta ocasión nos vamos a tomar muchas más libertades para comentar estrategias que tienen que ver mucho con los sistemas.

 

Los autores nos proponen dos estrategias. La primera a comentar es la que denominan ‘buffering‘ y que nosotros quizá llamaríamos observador o publicación/suscripción por el motivo que en seguida comentar´emos. La estrategia consiste en lo siguiente: si  nuestro proceso depende de información que se proporciona de forma externa, para evitar consultas constantes, almacenarla (meterla en un ‘buffer‘) y suscribirnos ante esa fuente externa a las actualizaciones de esa información. Es una estrategia inteligente y que, de hecho, responde a un patrón de la ingeniería de software denominado ‘publish & suscribe‘ u ‘observer‘ y aplicable en muchos otros contextos que no son sólo la automatización de procesos de negocio. Quizá por nuestra sensibilidad hacia los sistemas de información, quizá porque conocimos antes el patrón en ese contexto, nos gusta más hablar de ese patrón de publicación/suscripción para definir la estrategia.

 

La otra estrategia que nos proponen los autores es la de adición de control. Consiste en añadir unos controles en entrada y en salida para garantizar que tanto lo que recibimos como lo que entregamos (información o materiales) es correcto. Es una estrategia con su cara y su cruz. Claramente, va en contra de la velocidad, la flexibilidad y la eficiencia pero, a cambio, tiende a garantizar la calidad. En nuestra experiencia directa nos ha sido mucho más común observar un exceso de control que la falta de él, por lo que esta estrategia estaría ya aplicada (quizá en exceso). No obstante, cuando el foco es la calidad y la exactitud, es una estrategia a nuestra disposición.

 

Los autores no nos aportan más estrategias en esta perspectiva pero si vamos a añadir nosotros algunas aportaciones propias, muy orientadas hacia los sistemas y las bases de datos.

 

Una primera estrategia sería la de la unicidad de identificadores. ¿Qué quiere decir esto?. Cuando manejamos una entidad en varios sistemas de la compañía, para poder traspasar información de forma sencilla y correcta, para conseguir informes extremo a extremo y para evitar errores, es importante ‘llamar a las cosas siempre por el mismo nombre‘ en todos los sistemas’ . Por ejemplo: si queremos identificar a un cliente, podemos elegir el CIF, o un identificador propio, pero, sea el que sea, debería ser el mismo en todos los sistemas. Si vamos a identificar equipos de red, podemos utilizar por ejemplo, su número de referencia, su dirección MAC o un identificador propio. Sea lo que sea, en todos los sistemas deberíamos utilizar el mismo.

 

Complementaria de la anterior, apostaríamos por una estandarización de identificadores. Quiere decir que, si para la entidad que vamos a identificar, existe algún tipo de identificador que domine en la industria que nos movemos, normalmente será mejor usar ése que inventar uno propio. Así, en los ejemplos anteriores, tenderíamos a escoger el CIF del cliente o el número de serie de los equipos antes que los identificadores propios. ¿Por qué? Pues porque eso nos facilita la interacción con otras organizaciones, otros sistemas y otros informes.

 

Una estrategia doble muy aconsejable (aunque no sencilla) es la de la maestría de datos, es decir, establecer qué organización y qué sistema es el maestro de aquellos datos que son compartidos. Decimos que es una estrategia doble porque es tanto técnica como organizativa. La maestría técnica indica qué sistema o base de datos es la que consideramos maestro de un cierto dato. En caso de discrepancias se tomará como bueno el dato de esa base de datos y se tenderá a propagar su información hacia el resto de sistemas que la usen. Pero también es una decisión organizativa  porque define qué unidad organizativa establece las normativas de gestión de ciertos datos y, en caso de problemas de calidad del dato, qué criterios adoptar para decidir el más correcto. Así, por ejemplo, la unidad de marketing y ventas podría ser la maestra de la información de clientes, la unidad de logística la maestra de los datos de stocks y la unidad de sistemas la maestra del censo de ordenadores personales. No siempre es fácil aplicar esta estrategia cuando partimos de un mapa de sistemas legados que no la han respetado hist´óricamente, pero eso no invalida la estrategia sino que dificulta su implantación.

 

Otra estrategia, que tiene que ver con la anterior es la concentración de las altas y actualizaciones. Idealmente cada dato debería poder ser dado de alta y modificado en un único sistema, en concreto, en el maestro y en un único punto de proceso, en general en una actividad ejecutada por la organización maestra del dato. Al concentrar en un único punto el alta y la actualización, y un punto gestionado por la organización y sistema maestro, es muy sencillo forzar la aplicación de políticas correctas de datos y evitar errores. En la práctica, puede ser poco realista en procesos complejos y mapas de procesos complejos, conseguir hacer esto en un solo punto y sistema. En cualquier caso, deben a reducir al mínimo los puntos, y aún más los sistemas, en que se produce la actualización.

 

Ya que hablamos de estrategias de difícil implementación, la reina de las estrategias sería la de normalización de los modelos de información. Se trata de conseguir que en una empresa se utilice un modelo de información similar, independiente del sistema. Esto es más una aspiración que una posibilidad realista (salvo en empresas de nuevo cuño o pequeñas). Pero sí marca una aspiración: simplificar y unificar lo máximo posible los modelos de información. Cuando se aplica SOA como arquitectura base del mapa de sistemas, se puede intentar esa normalización en los modelos de información que se intercambia en los web services dando libertad al modelo de información interno de cada sistema.

 

Una estrategia muy evidente, pero no siempre respetada, es la de utilizar los campos de información para un único propósito.  Puede parecer trivial, pero no es extraño ver que, para evitar tener que hacer modificaciones en un sistema ya en producción, se opta por reutilizar un campo destinado a otro fin. Así, por ejemplo, se puede plantear usar el campo destinado a recoger las observaciones del cliente para anexar información de una campaña comercial. A corto plazo parece inteligente porque evitamos desarrollos pero, en seguida invalida la información y hace casi imposible la obtención de informes y análisis coherentes.

 

Aunque probablemente en esta perspectiva de información se puedan añadir muchas otras posibilidades y precauciones, vamos sólo a tocar una más que es evitar los campos abiertos, es decir, el famoso texto libre. Los campos de texto libre son cómodos y en muchos casos son un gran recurso puesto que permiten añadir observaciones, comentarios, informaciones personalizadas, etc. Sin embargo, abusar de los campos de texto libre puede hacer que la información sea intratable, no tanto durante la ejecución del proceso (un humano se supone que entenderá ese texto libre) como a la hora de obtener informes o automatizar tareas ya que el texto libre es difícilmente automatizable.

 

En nuestra experiencia, hay mucho que mejorar en las prácticas habituales de tratamiento de la información en los procesos de negocio y es una pena porque de una buena información se pueden obtener muchísimos beneficios y más hoy en día con el desarrollo del Big Data, el Machine Learning y, en general, todas las tecnologías apoyadas en datos.

 

Esperamos que las estrategias indicadas, que sin duda no agotan el tema, sí aporten algo de luz.

 

En el próximo artículo, nos centraremos claramente en la tecnología puesto que abordaremos, precisamente, la perspectiva de tecnología.

 

Artículos anteriores relacionados

 

Imagen: Fuente pixabay, dominio público