Suscríbase y reciba gratis nuestro newsletter y alertas de noticias en su casilla de e-mail
IT SOLUTIONS 2013
LA GESTION DESDE LA NUBE
Pool Económico Eventos realizó la Jornada sobre IT Solutions para compañías de seguros, reaseguros y brokers - La gestión desde la Nube. El nuevo paradigma ya llegó para aportar escalabilidad, flexibilidad, reutilización de servicios, acortamiento de plazos y ahorro de costos. El desafío de las empresas es gestionar sus negocios desde la Nube con la ayuda de sus Chief Information Officer. El CIO ya no es sólo un facilitador técnico sino un facilitador de discusiones, aunque sigue siendo responsable de elegir bien a los proveedores, controlar estrechamente los servicios y buscar los mejores partners del mercado.
18 de abril de 2013


IT Solutions para compañías de seguros, reaseguros y brokers
, la jornada de actualización profesional que organiza todos los años Pool Económico Eventos, ya es un evento referente para el sector.

La segunda edición, realizada en el hotel NH City Buenos Aires el pasado 17 de abril, se tituló La gestión desde la Nube y abordó los desafíos, las exigencias y los beneficios que significa subirse a esta tendencia de gestión IT para las empresas vinculadas con la industria aseguradora.

Gabriela Barbeito, socia y conductora de Pool Económico TV, abrió la jornada recibiendo a los asistentes y dando paso el primer panel de oradores de la mañana.



PANEL 1. Convocada bajo la consigna Los seguros llegaron a la Nube. Escenario y tendencias. El rol de los CIO´s, la primera mesa de la jornada contó con la participación de Hernán Seoane, gerente general de la Cámara Argentina de Internet (CABASE); Javier Corona, socio y Technology Integration Consulting Services de Deloitte; y Diego Mañe, manager de QBE Seguros La Buenos Aires para América Latina.



La Internet en la Argentina, los nuevos servicios de IT en la Nube. ¿Cómo serán, para quiénes y cuánto costarán?, fueron algunas de las preguntas que Hernán Seoane, gerente general de la Cámara Argentina de Internet (CABASE) respondió en su ponencia.

El representante de CABASE comenzó por repasar que de 1999 a esta parte, la cámara propició la existencia de una decena de NAP´s en todo el país, es decir, diez puntos de interconexión en el que los proveedores de Internet (ISP) pueden intercambiar tráfico, y recordó la cruzada que realiza por federalizar la banda ancha, para que se garantice la cobertura del servicio en todo el país, inclusive en aquellas zonas inhóspitas a las que no llega con la misma disponibilidad y precio que a Buenos Aires, dada su baja rentabilidad y densidad poblacional.

¿Cómo se llega del mainframe al Cloud (o nube)?, preguntó Seoane, y respondió: “Vuelve la moda de los 80”. El gerente general de CABASE repasó la evolución que se dio en materia de administración de datos corporativos que va desde el mainframe utilizado en los años 80 –en el que una gran máquina centralizaba toda la información–, sigue por el procesamiento distribuido que propició la PC conectada a redes locales (LAN), pasa por la Internet por routers (WAN), y llega hasta las comunicaciones que propician las redes de fibra óptica, cuyo contenido se vuelve a centralizar pero, ahora, en La Nube.

“Con distintas características, el concepto de La Nube es el mismo al del mainframe porque el terminal (la computadora) es un elemento bobo que sirve para acceder al contenido que se guarda en la Nube”, definió Seoane.

“Ustedes me preguntan si estamos yendo a la Nube y yo les digo que ya llegó, y que llegó hace rato”, dijo el especialista, e invitó a pensar en que los consumos que hacen los más chicos están basados en la conectividad: juegos en línea (Club Penguin), música (iTunes), videos (YouTube), correo (Hotmail o Gmail), intercambio de archivos en línea (Dropbox), comunicaciones (Skype, Facebook), etc.

“Habrá una multiplicación de terminales con muy buena conectividad, a las que llamo bobas porque todo el procesamiento y el contenido estará subido a la red. Y, para que todo esto funcione, debe aumentar el aumento de la banda ancha”, dijo.

Además, señaló que “se viene la red FTTH (Fiber To The Home), la fibra al hogar y, a partir de ahí, la confluencia de servicios” como televisión, video bajo demanda, teléfono, etc.

El especialista citó el ranking de Net Index de febrero de 2013, en el que se señala a la banda ancha argentina como la más lenta del mundo, con una tasa de transferencia muy irregular, que oscila entre 1.2 y 9 dependiendo el lugar del país desde donde se uno conecte.

“Este es un tema que, como Cámara, nos preocupa mucho”, dijo Seoane sobre el escenario que ubica a la Argentina en el puesto 107 sobre un total de 180 países estudiados, y alertó: “Con la Nube, lo que hay que tener en cuenta es la disponibilidad de ancho de banda y tratar de tener el contenido hosteado cerca, para que el usuario perciba una mejor señal del servicio al hacer un ruteo menor”, recomendó.

“Las bondades del Cloud radican en que es más fácil mantenerlo, ahorra costos de hardware y licencias, además de los beneficios dados al tercerizar el datacenter”, dijo y se adelantó a dar una respuesta a la pregunta si tener datacenter propio (in house) o tercerizado, ya que el primero involucra una apuesta económica mayor por la adquisición de los equipos y por el acondicionamiento del lugar que requiere (en materia de seguridad, temperatura, electricidad, redundancia, escalabilidad, y su administración), entre muchos otros factores.

“¿Qué tiene más valor? ¿La computadora o los datos? Los datos. Pero, ¿qué aseguramos? La computadora. La pregunta es, entonces, cómo podemos asegurar los datos”, preguntó para cerrar su presentación.



Bajo el título Cloud Computing, diez cosas que todo CIO debería saber, Javier Corona, socio y Technology Integration Consulting Services de Deloitte, se enfocó en tratar de entender al Cloud desde el punto de vista del negocio, porque “Cloud ya existe. Internet es lo más globalizado que conocemos hasta el momento. Es un lugar al que millones de personas y dispositivos (teléfonos, computadoras, etc.) acceden todo el tiempo. Es en esa Nube donde están y estarán nuestros clientes, y es muy importante entenderlo desde el punto de vista del negocio”, explicó el ejecutivo de Deloitte.

Advirtió que “muchos de los negocios que funcionan ahora están pensados en y para el pasado” e invitó a pensar los productos y servicios basados en “la vida real” dando un ejemplo: cuando se encuentra con un cliente, lo graba para poder, luego, compartir esa charla con su equipo en la India.

En ese sentido, Corona señaló que “el rol del CIO cambia; ahora su papel es ayudar a entender el negocio de forma diferente, porque no es sólo un facilitador técnico sino también un facilitador de discusiones”. Dijo: “Somos 6.000 millones de personas en el mundo y dicen que un 20% se conecta más de una hora a Internet. Supongamos que sea un porcentaje menor. Igual sigue siendo un montón de gente que, desde donde esté, puede hablar de nosotros y, si nosotros no estamos allí, no podemos controlar qué se dice de nosotros”, advirtió.

Asimismo, el consultor sostuvo: “Gran parte de las personas que van a consumir nuestros productos, viven, comparten y generan opinión en las redes sociales. La gente que actúa en la red quiere interactuar con gente, no con sistemas”, sostuvo e invitó ir dando los primeros pasos en ese sentido.

“Hoy hay que repensar el negocio y repensar los procesos porque tenemos cientos de miles de personas construyendo cosas en la Nube”, señaló Corona y ejemplificó las apps gratuitas y pagas disponibles en la web, a las que el CIO puede acudir e investigar.



A su turno, Diego Mañe, manager de QBE Seguros La Buenos Aires para América Latina, se refirió al desafío de gestionar el negocio desde la Nube y al nuevo rol del CIO.

“La Nube es la forma en que proveemos infraestructura para prestar aplicaciones y servicios a usuarios que accederán de forma remota, sin importar dónde estén geográficamente, ni desde qué dispositivo”, definió, y explicó que la Nube puede ser privada, pública o híbrida, es decir propia, contratada, o una combinación.

“En el primer caso, los servidores son propios, están dentro de la red propia, y requieren una mayor inversión inicial, mientras que en el segundo (la pública) los servidores son del proveedor, se utiliza la escala de las grandes compañías y se comparten los equipos, por lo que el costo es menor”, dijo Mañe.

Asimismo, distinguió diferentes tipos de servicios basados en la Nube:

1) La infraestructura como servicio (Iaas) en donde la gestión la realiza el cliente, excepto aquella vinculada a los servidores y su almacenamiento que queda bajo la tutela del proveedor.

2) La plataforma como servicio (Paas), en el que la tarea es compartida entre el cliente y el proveedor porque el primero sólo administra las aplicaciones y los datos.

3) El software como servicio (Saas), en el que todo el paquete es gobernado por el proveedor.

“La gente ya está acostumbrada a usar Cloud, el modelo mental ya cambió en las áreas de negocio, y cada vez van a pedir mayor velocidad y eso ejerce una presión cada vez mayor sobre el CIO”, sostuvo Mañe sobre el clima que se vive hacia adentro de las compañías en relación a los sistemas corporativos y las demandas de sus usuarios internos.

Sin embargo, para Mañe, el CIO debe tener en cuenta muchos aspectos a la hora de acceder a esos requerimientos, por ejemplo, los vinculados a “la seguridad de los datos para incorporar nuevos servicios, para encontrar un partner que tenga una calidad de servicio adecuado y que garantice la gobernabilidad”.

En cuanto a la gobernabilidad, el especialista advirtió acerca de la importancia de contar con “reglas claras dentro de la organización de cómo es esa gobernabilidad” que impidan el uso de un servicio o su contratación por cualquier área del negocio, sin la aprobación del área de IT, “para evitar conflictos dentro de la empresa”, según explicó.

Asimismo, recomendó trazar un mapa detallado a quienes vayan a migrar su datacenter tradicional a la Nube, porque “requiere de procesos de estandarización, consolidación de infraestructura, virtualizar la infraestructura y, recién allí, comenzar a dar servicios a los empleados o clientes”.

Asimismo, y en la misma línea que los expositores anteriores, Mañe advirtió sobre el cambio de rol del CIO: “Cobrará mayor importancia el conocimiento del negocio pero la infraestructura dejará de ser un problema, que pasará a serlo de terceros (porque usará la infraestructura de otros)”, detalló

“El CIO delega la tarea pero no la responsabilidad”, sentenció Mañe y subrayó que “sigue siendo rol del CIO elegir bien a proveedores, controlar los servicios y buscar los mejores partners del mercado”.



KEYNOTE SPEAKERS 1. La primera tanda de Keynote Speakers de la jornada de actualización profesional organizada por Pool Económico Eventos, fue por partida doble para dar cuenta de la solución de Business Performance Management Process (BPMP), que Ricardo Zukauskas, CEO de Pirámide Technologies, y Ariel Bernis, gerente comercial de Organizadores Estratégicos de Meridional Seguros, del Grupo AIG, presentaron.



“¿Cómo se van a ir subiendo las empresas a esta nueva tendencia”, se preguntó Ricardo Zukauskas, CEO de Pirámide Technologies, y presentó su propuesta: BPMP Solutions.

“El Business Performance Management (BPM) está orientado a controlar el flujo de procesos de las compañías. El Performance Management Process (PMP) está orientado a mejorar la performance del capital humano en el ciclo de vida de ese proceso”, definió el ejecutivo y alertó: “El proceso por sí mismo no genera todo el valor que necesita la compañía, y la performance de la gente tampoco genera el valor suficiente si no está bien orientado a los procesos. Por eso el BPMP está orientado a la unión de esos dos mundos”, redondeó.

¿Cómo se integra Web Tracking Solutions en este concepto? “Integrando la capa de negocios en el workflow de procesos, dialogando con los sistemas Legacys y Core que existen en la compañía, poniendo una capa de procesos robusta, llegando hacia los usuarios y midiendo su performance y detectando el ciclo de mejora continua cuando existen falencias”, explicó Zukauskas y destacó que se trata de un modelo de negocios integrado con arquitectura única, escalable, que permite integrar a la compañía con toda la red de negocio.

“Se trata de una arquitectura estándar, posible de implementar en una Nube privada, híbrida y/o pública”, señaló el ejecutivo.

“Las empresas de seguros celan mucho sus datos. Ese paradigma está cambiando porque el dato se está haciendo más público y, por eso, el negocio se está transformando en un comodity cuyo precio lo fija el mercado”, señaló.

En ese sentido, el CEO de Pirámide Technologies, sostuvo que las aplicaciones y soluciones basadas en Internet “tienen que dar un vuelco para adaptarse a las nuevas condiciones de negocio”, entre las que enumeró “mejorar los procesos operativos, fidelizar la cartera, aumentar la rentabilidad y gestionar y controlar la empresa”.

Zukauskas centró la atención en considerar la portabilidad, la usabilidad y la seguridad que una aplicación ofrezca, de cara a los estándares que deben cumplimentar las aseguradoras.

“La orientación de los procesos como servicio tienden a que cada servicio tenga un SLA de servicio particular, sean cuantas conexiones diarias tengas, por ejemplo, garantizar una cotización en línea en seis segundos”, destacó.



Ariel Bernis, gerente comercial de Organizadores Estratégicos de Meridional Seguros, por su parte, repasó su experiencia como cliente de Pirámide Technologies y coincidió con Zukauskas: “Es cierto que si no entrego una cotización en seis segundos el banco me baja, aunque tenga el mejor costo del mercado. Pero también es cierto que en seis segundos no hago nada en mi vida”, relativizó.

“Hoy, Sistemas es un argumento de ventas fundamental y es el futuro que estamos viendo venir. El comercial de la calle está dejando de existir como lo conocíamos”, dijo Bernis y argumentó, en coincidencia con el orador que lo precedió: “Lo masivo está convirtiéndose un comodty en el que ya no puedo poner ni el precio, pero sí puedo poner servicios, como el de posventa, y en eso tenemos que trabajar”, postuló.

“Tenemos que salir a vender a un mercado diferente, y no sólo hablo de la generación Y que no conciben la posibilidad de no poder comparar un precio en Internet, sino de todas las generaciones que coexisten y que constantemente reciben ofertas”, englobó.

Bernis sostuvo que los comerciales son los líderes del cambio pero que necesitan acompañamiento, y convocó a los proveedores del mercado y al área de Sistemas de las compañías a ayudar con soluciones, herramientas y entendimiento de las necesidades del negocio.





PANEL 2.
Beneficios de invertir en TI y dar el paso hacia la Nube fue el título del segundo panel del evento que reunió a Fernando López Orlandi, gerente comercial de Pirámide Technologies; Carlos Holzknecht, gerente comercial de Inworx; y Emiliano Spinella, gerente regional de Productos DataCenter de Level 3.

El primer orador fue Fernando López Orlandi, gerente comercial de Pirámide Technologies, quien se refirió a Quality Assurance y su importancia en el negocio de los seguros y destacó que el salto a la Nube “es un cambio de paradigma bastante profundo” que obliga a las aseguradoras a compartir mayor información.

“Ahora, los clientes comparan nuestros precios y servicios y empiezan a exigir mayor calidad. Atravesamos el boom del cotizador online, pero todavía no es posible comparar coberturas y su alcance fino”, dijo.

“Cuando hablamos de Quality Assurance hablamos de la labor de poder garantizar que un proceso de calidad se va a cumplir y que ese producto cumple con el estándar de calidad previsto”, dijo el especialista y distinguió tres estándares de calidad y seguridad:

1) La calidad del producto en sí y su desarrollo.

2) La calidad dentro de los procesos funcionales.

3) La calidad vinculada al resultado final.

“Muchas veces la medición se hace al final cuando, en realidad, debe hacerse en el diseño para después no tener que ajustar algo a partir de un resultado, y esto tiene que ver con los roles de los individuos y del alcance de sus funciones”, concluyó López Orlandi.


Luego, Carlos Holzknecht, gerente comercial de Inworx, se refirió a los Conceptos claves de la computación en la Nube y comenzó por destacar que la creciente necesidad de hablar de negocios por sobre la tecnología.

“La tendencia es que en algún momento sea tan lógico contratar los servicios de la Nube como los de logística, por ejemplo”, apostó el ejecutivo, y citó indicadores que permiten dimensionar la tendencia:

En 2011, el 90% del área de Investigación y Desarrollo (I+D) de Microsoft se concentró en el desarrollo de temas vinculados a la Nube.

El 2% de la energía que se genera en Estados Unidos es consumida por datacenters.

Se necesita un servidor nuevo por cada 600 smartphone o 120 tablets.

“Es difícil sostener que la Nube es sólo una moda”, sentenció Holzknecht. De todas maneras, reconoció aspectos a considerar como “seguridad, normativa y compliance”, y admitió que “las normativas siempre van por detrás y se tarda en adaptar el compliance a los servicios nuevos”.

En cuanto a la oferta del negocio, el ejecutivo de Inworx destacó que “la comoditización de estos servicios hace que el precio baje” y que, “al analizar cada propuesta, hay que poner en la balanza la velocidad de procesamiento y el ancho de banda” además de distinguir entre las modalidades Saas, Paas, Iaas, que se diferencian por la delegación de responsabilidad implícita en cada uno.

“Inbroker siempre se vendió bajo el formato tradicional y, por ende, alcanzó a brokers más grandes, pero cuando pensamos el negocio de Smartix, y de la mano de servicios en la Nube, logramos llegar al mercado de intermediarios y a una parte del mercado a la que no llegábamos –repasó Holzknecht– Nos abrió un nuevo sector del mercado pero, además, una nueva alternativa para los clientes existentes”, reconoció.

Entre los desafíos que esta apuesta involucró a la compañía, el ejecutivo de Inworx destacó el replanteo del modelo de negocio y las nuevas normativas, como las vinculadas a la seguridad de la información, entre otras.



“¡Ya no hay tiempo! Aquellas empresas que todavía no incorporaron alguna plataforma virtualizada o servicio Cloud están en amplia desventaja respecto de aquellas que sí lo hicieron”, alertó Emiliano Spinella, gerente regional de Productos DataCenter de Level 3.

Para Spinella, quien tomó la palabra bajo la consigna la Nube, servicios y tendencias, las motivaciones para sumarse a la tendencia de virtualización se basa en la reducción de costos (de inversión u operacionales), contar con un costo directo, ganar agilidad y enfocarse en el core business.

“Sin embargo, estas motivaciones no convierten al Cloud en un mandato excepto por la necesidad de administrar información”, alertó el ejecutivo y agregó: “En los próximos años deberemos lidiar con brutales volúmenes de información”, cada vez mayores, con una estructura impredecibles y de diferentes fuentes.

En ese sentido, Spinella citó indicadores que hablan de la tendencia, por ejemplo: “En 2012 cada ser conectado al mundo digital generó 1,71 petabytes (1.800.000 gigabytes), cifra a la que se suma información de contexto por 3,1 petabytes. En total, una persona generó 5,62 petabytes en el mundo digital. Toda esa información está en algún lado almacenada. ¿Dónde y quién lo está pagando?”, preguntó.

“De los 1.934 exabytes existentes (categoría ubicada por encima de los petabytes), el 60% lo tienen que alojar las empresas y mantenerlos disponibles. Datos que son, a su vez, el 60% de toda la información que tiene esa empresa”, explicó.

“La generación de información crece. En 2005 se generaron 130 exabytes; en 2010, 1.227 exabytes y se estima que en 2015 serían 7.210 exabytes”, citó Spinella, y convocó a pensar cómo afrontará ese incremento una empresa cuyo foco de negocio no es la tecnología y la administración de grandes volúmenes de datos.

“La virtualización es real y de eso no podremos escapar”, sentenció ante de distinguir entre “la virtualización (que es la tecnología) y los modelos Cloud (que son los modelos de comercialización”.

“Hay Nubes para todo tipo de clientes y requerimientos" y retomó la diferencia entre Nubes públicas, privadas e híbridas.

“Los Cloud Services no van a reemplazar los modelos de hosting o housing, sino que lo complementarán”, adelantó. “Muchas empresas tienen servidores para el manejo de proyectos y la realidad es que existen alternativas Saas a las que pueden adaptarse”, ejemplificó.

Asimismo, el ejecutivo adelantó otro nivel de complejidad: “La Internet de las cosas, algo de lo que hablaremos durante 20 años. Me refiero a cuando 200 billones de cosas estén conectadas a Internet, cosas que van a generar información y que deberemos poder administrarla”, finalizó.



KEYNOTE SPEAKER 2. Al promediar el día, Lautaro Mon, director de Smartix, expuso las ventajas del software en la Nube y planteó las diferencias que lo separan del software tradicional.

En esa diferenciación (entre el software tradicional y el que se entrega como servicio desde la Nube), Mon destacó el delivery (uno es instalado y el otro está hosteado), el reemplazo y/o actualización (que suele ser conflictivo en el primer caso y no traumático en el segundo), los costos adicionales (que en el primero involucra instalación, configuración, customización, capacitación, actualización, además de costos ocultos, entre muchas otras variantes, mientras que en el segundo sólo alcanza con la configuración y migración, lo previsto en la suscripción).

“¿Quiénes pueden beneficiarse con la Nube? Principalmente los productores independientes, porque no tienen la espalda ni los recursos para hacer las inversiones necesarias para tener servidores propios. También los organizadores, mientras mantengan estándares de mercado porque, en caso que no sea así, seguramente necesiten de un modelo híbrido. Los brokers nacionales e internacionales también pueden beneficiarse de la Nube pública con la potencia que puedan sumar sus propios datacenters. Mientas más a medida sean sus desarrollos, más necesitarán de Nubes híbridas”, sostuvo y explicó que “la diferencia radica en que los procesos se puedan o no homologar en la Nube”.

“Cuando Hotmail nace en la década del 90 como un modelo en la Nube, no te permitía conectarte a ningún vertical de la industria”, dijo Mon y señaló la importancia hoy de “abrirse a la integración con otros desarrollos”.

“Hoy está muy de moda el broker online y se ven dos tipos de proyectos: el que quiere hacerlo y vivir del broker online y el que sólo quiere estar en la web porque estima que la generación Y comprará por Internet”, diferenció y evaluó ambas tendencias. Destacó, sobre todo, la importancia de diferenciarse a pesar de que el back end lo provea Smartix: “No dejamos de recomendarles que la pieza final (front end) la hagan ellos para que se diferencien”, remarcó.

Para este ejecutivo, “otra tendencia es tomar un software de la Nube e integrarlo con las necesidades de la industria”. Evaluó el crecimiento que dio el sector de seguros en ese sentido: “Hasta hace un año y medio, muchos de los web services estaban en instancias básicas. Hoy, en cambio, muchos ya están en un buen nivel de desarrollo”, aplaudió.

“Un cliente muy grande estaba obsesionado con tener el software de Smartix en sus propios servidores. Analizaron a Smartix y vieron la forma de llevarlo a sus equipos, pero cuando elevaron el proyecto a la casa matriz, la repuesta fue una pregunta obvia: ¿Por qué lo vamos a tener adentro si está en la Nube?”, ejemplificó Mon mientras aclaró que ese proyecto fue retomado pero íntegramente en la Nube.





PANEL 3.
Luego del almuerzo, se convocó al tercer panel de la segunda edición de IT Solutions para compañías de seguros, reaseguros y brokers, que propició el ámbito adecuado para profundizar acerca de las experiencias que ya se desarrollan en la Nube. Expusieron Cristian Llodrá, director comercial para la región sur y norte de América Latina de NComputing; Guillermo Blauzwirn, presidente de DataIQ; y Francisco de Paoli, director de IT de Liberty Seguros.



“¿Cuánto vale la información en su empresa?”, preguntó Cristian Llodrá, director comercial para la región sur y norte de América Latina de NComputing.

NComputing ofrece una solución de puestos de trabajo que crea una interfaz de escritorio que brinda costos bajos, una fácil implementación, cero obsolescencias (porque se actualiza desde un servidor central) y simplifica el trabajo, según repasó el ejecutivo que subrayó el entorno de seguridad que garantiza.

Se trata de una placa que genera una interfaz de trabajo y mediante la cual el empleado debe loguearse al sistema pero un puesto de trabajo al que no podrá conectar un USB ni instalar programas, y que “garantiza que todos los usuarios accedan a la misma tecnología (o a aquella a la que el área IT les permita entrar)”, explicó.

En cuanto a la economía de la propuesta, Llodrá ejemplificó con el caso de un call center de Uruguay con 400 puestos de trabajo que ahorró “648 mil dólares en energía eléctrica y mantenimiento”, costos que luego customizó con valores locales de energía, renovación de equipos, etc.”.

“La gente no elige la virtualización porque elige marcas, sino porque busca ahorros”, dijo y preguntó: “¿Cuál es el costo de la información en sus empresas? ¿Cómo lo cuantifico? Es difícil”, respondió.

En relación al sector de Seguros, Llodrá señaló la importancia de la seguridad de la información porque, según le dijo un cliente, “los ejecutivos de cuenta trafican con las bases de datos”. Esa empresa debió comenzar a trabajar con esta nueva tecnología a la que sólo se conecta un teclado, un Mouse y un monitor, y en la que corre un ERP propietario y sin puertos físicos de USB. “De ese modo, cambió hasta la modalidad de soporte, porque se concentraron en un servidor remoto con tráfico encriptado y, si el puesto se rompe, lo reemplazamos (a pesar de sus tres años de garantía). Ahora qué puede robarse la gente. Un dispositivo, tal vez. Pero información no”, remarcó.



DataIQ es Máster Reseller de QlikView en Argentina, Uruguay y México, y su presidente, Guillermo Blauzwirn, repasó casos de negocios en torno al concepto de Business Discovery.

“Lo importante es reparar en cómo pensamos. Hay que iniciar el camino hacia el análisis de la información de una organización, el desarrollo de la capacidad analítica, un camino que no lo hace IT o un área particular sino en conjunto”, anticipó.

“Los datos están escondidos en los sistemas transaccionales y extraerlos con las herramientas tradicionales es muy costoso. Por eso, lo que hicimos fue cambiar el paradigma: usar una tecnología que reflejara la forma de pensar que tenemos”, explicó Blauzwirn.

“QlikView mejora dos o tres puntos la rentabilidad de la compañía, y requiere de menor cantidad de gente para su administración”, destacó y lo comparó con las soluciones más tradicionales del mercado: “En las soluciones tradicionales, el área de IT tenía que hacer todo e implementar cinco o seis herramientas (y tecnologías) diferentes para las preguntas básicas del negocio. QlikView tiene una visión holística y me muestra toda la película. Nuestro negocio es ofrecerles experiencias encantadoras, que disfruten de la herramienta. Lo implementamos en un área que sea crítico y, a partir de allí, crecemos”, puntualizó.

Blauzwirn dijo que la misma aplicación funciona sobre cualquier dispositivo y que la experiencia de análisis demanda segundos, “un click”.

“De este modo, todas las áreas podrán hablar el mismo idioma y, por ejemplo, se puede compartir información, obtener gráficos para que se adapten a las reuniones, entre otras, y sin romper nada”, aclaró.

“Luego de la experiencia se viene la pandemia de aplicaciones porque se comienza a aplicar en todas las áreas, y se consigue matar a los cientos de Excels que circulan por toda la empresa”, prometió sobre una solución que se propone bajo la adquisición de licencia y que requiere de equipamiento basado en Intel y puede ser administrado por gente normal, es decir, que no está especializada en IT.

Blauzwirn citó el caso de Galicia Seguros, que maneja 6 millones de pólizas y que eligió QlikView “por su facilidad de uso, porque posee una plataforma robusta y porque las implementaciones son rápidas”, entre otras cosas. “La compraron para Ventas y surgió la pandemia por la que se expandió a otras áreas de la compañía”, dijo el ejecutivo e invitó a los presentes a probar la experiencia.



A su turno, Francisco de Paoli, director de IT de Liberty Seguros, reparó en cloud computing y en Sales Force, “un pionero en subirse a la Nube”.

“En Liberty nos subimos a la solución de Sales Force, mucho más que un CRM, y fuimos comprobando todas sus virtudes con el uso (confiabilidad, velocidad, escalabilidad, seguridad, etc.). Además, desde las diferentes áreas de negocios ahora me llaman menos veces porque es fácilmente configurable. Yo no tengo servidores, ni problemas con los puertos o con los firewalls, etc. Es una solución de Nube que nos elevó el nivel de los Sistemas” dijo.

“Cuando Sales Force graba un feature, lo graba en 24 servidores desparramados en todo el mundo y, cada uno de ellos, requiere de cinco accesos biométricos para su acceso”, detalló.

“La implementación fue en 2011, pero la casa matriz la utilizaba desde 2008 y pasó a ser un proyecto corporativo” dijo de Paoli y señaló que las licencias de que disponen las reparten entre “empleados (170 licencias) y dos call centers (4 licencias)”.

“A nivel IT lo integramos a nuestros sistemas y todos los Departamentos usan Sales Force”, dijo y repasó que el primer paso fue “definir qué datos podían ir a la Nube y cuáles no”. Finalmente, todos los datos de finanzas quedaron en la compañía y a la Nube subieron a los productores, los prospect de clientes, las oportunidades de negocios, información de Business Intelligence, entre otras cosas.

Al momento de señalar ejemplos del caso, el ejecutivo señaló la integración con Google, con la plataforma de e-commerce, la herramienta de Bussiness Intelligence de Microstrategy, ofrece workflow´s de gestión y muestra los flujos de procesos y emisión, pero también muestra, por ejemplo, “cómo una oportunidad de venta en el CRM se transforma en una operación en el sistema de emisión”, ejemplificó de Paoli.

Asimismo, el ejecutivo celebró que “lo más importante es que todos los reportes los obtienen y gestionan los propios empleados de las diferentes áreas, pero no representa una tarea más de IT”.



KEYNOTE SPEAKER. La tercera ponencia de Keynote Speakers fue por partida doble: Infraestructura y seguridad informática a cargo de Rafael Rueda, consultor IT Manager Security de Insurance Business Solution (IBS); y Valor agregado de Business Intelligence Integrado, a cargo de Javier Estefan, director, de SBI Technology.



Rafael Rueda, consultor IT Manager Security de Insurance Business Solution (IBS), señaló aspectos que hacen que la solución sea robusta y alineada desde lo conceptual y lo práctico, en línea con la tendencia de integrar los negocios con la Nube.

“Cuando hablamos de una solución de negocios core, enfrentamos los desafío de que se adapte a la necesidad del negocio, que me permita cubrir las expectativas de crecimiento y reutilizar la plataforma que ya tengo instalada”, señaló el consultor.

La solución que IBS ofrece puede correr en diferentes plataformas, es modular y su infraestructura se adapta al cliente. Asimismo, el sistema ofrece un front end web con interfaz gráfica. Ruda dijo que están trabajando para cumplimentar con los diferentes requerimientos de la Superintendencia de Seguros de la Nación.

“El tema seguridad, que puede parecer independiente del negocio del seguro en particular, es un paso complementario a cualquier emprendimiento y, por eso, creemos importante empezar a trabajar con soluciones desarrolladas sobre la base del ethical hacking (y no herramientas de escaneo automatizado)”, valoró el ejecutivo de IBS y agregó: “Muchas veces, las mismas vulnerabilidades que pueden servir a un atacante pueden generar cuellos de botellas en las redes, por tanto es un beneficio por partida doble (con recomendaciones)”.

En ese sentido, IBS también ofrece un servicio de acompañamiento en materia de seguridad, para evitar que las vulnerabilidades se repitan. “Buscamos estandarizar para que todos los conceptos estén previstos en las actualizaciones, cierre de puertos, etc; y monitoreamos luego, para saber si todo funciona como es esperado”, concluyó Rueda.



Por su parte, Javier Estefan, director, de SBI Technology, presentó su propuesta que trabaja con la herramienta Cognos, de IBM.

“IBM desarrolló una solución abarcativa que involucra Business Intelligence pero también permite hacer análisis predictivo, redes sociales, simulación, entre otros, para ser una solución escalable y flexible”, explicó.

Se trata de un tablero en el que se visualizan informes de producción o siniestros, u otra área, “que son totalmente navegables”. Dijo, además, que se trata de un tablero que arma el propio usuario.

Inclusive, el sistema permite contextualizar más la información en planillas, sobre la base de un cubo multidimensional, es decir, la apertura de información disponible alrededor de un dato, como puede ser la prima, dato tabulado por vehículo o antigüedad, entre otras posibilidades.

Asimismo, los informes se pueden compartir, extraer en PDF o Excell, enviarlo por e-mail, etc.

Estefan explicó, finalmente, que inclusive se puede planificar la autorización y repetición de los monitoreos.



PANEL 4. En el cierre de la segunda edición de la jornada IT Solutions para compañías de seguros, reaseguros y brokers - La gestión desde la Nube organizado por Pool Económico Eventos, la temática fue Cómo otorgar valor a la información del negocio, a cargo de de Juan Caracoche, SOA & Cloud Practice Leader de Global Logic; Martín Elizalde, abogado especialista en Tecnología Legal y socio en Foresenics; y Leandro Ruiz, Solution Architect Partner de Teradata.



Entre el cielo y la tierra. El desafío de integrar los sistemas hacia la Nube para la toma de decisiones, fue el título con el que Juan Caracoche, SOA & Cloud Practice Leader de Global Logic, presentó su exposición.

En primer lugar, adelantó la decisión estratégica de la firma de desembarcar en el sector de Seguros, que se suma a su experiencia en el de Finanzas.

“El desafío que tiene el negocio implica subir a la Nube, saber qué opinan de mi producto o mi servicio, y de forma inmediata”, sentenció el ejecutivo que, además, repasó la historia de Internet y los tipos de accesos.

Para Caracoche, el escenario se reparte entre las empresas que subieron a la Nube y las que están dudando. “Están las que prueban con aplicaciones satélites de nuevos proyectos, con bajas inversiones, y luego van avanzando sobre otras áreas”, dijo y comparó con “el uso de aplicaciones en la Nube de soluciones core, y eso obliga a interactuar”.

“El primer punto a tener en cuenta radica en la integración y orquestación, (integrar un servicio en la Nube con los servicios que tengo dentro de la empresa, como el scoring, el alta de pólizas, etc.). Esto se llama SOA y se vincula bien con Cloud porque ofrece escalabilidad, flexibilidad, posibilidad de reutilizar servicios, acortar plazos y ahorrar costos”; enumeró.

“Además, las empresas comenzarán a contratar cada vez más servicios en la Nube y generan silos de información que SOA impide, integra y hace que la calidad de información que circula sea verdaderamente representativa”, sostuvo.

Asimismo, el representante de Global Logic aclaró que a la combinación de SOA con Cloud, Gartner la llama Ipaas (Integration Platform as a Services), y que la consultora estima que para 2016, el 35% de las grandes y medianas organizaciones estarán usando Ipaas de alguna manera.

“¿Qué detiene el avance de Ipaas? La excesiva fragmentación de oferta de servicios en la Nube, múltiples de start-ups (que no se sabe hasta cuándo funcionarán), proveedores no consolidados (cambiantes, por ejemplo, en su modelo de negocio), cuestiones vinculadas a la seguridad y un retorno de inversión incierto (porque no se masificó)”, respondió.

Sin embargo, para el ejecutivo “el mercado ya comenzó a consolidarse en plataformas de la mano de vendedores tradicionales y, por ello, los beneficios están dados, por ejemplo, en materia de seguridad física (de cara a contar con todas las normas de seguridad internacionales)”. Reconoció, además, “el riesgo que significa poner la operación en manos de un servicio, de un socio estratégico”.



Por su parte, la presentación de Martín Elizalde, abogado especialista en Tecnología Legal y socio en Foresenics, se refirió a la cuestión legal. Data en la Nube: prevención legal y control de daños fue el título de la ponencia en la que sostuvo que “subirse o no subirse a la Nube es abstracto, porque ya lo hicieron”, por ejemplo, al usar Gmail.

“Cuando el titular de un dato, o un juez por ejemplo, les pida un dato (por un siniestro o por lo que sea) ustedes tienen que saber cuándo es accesible esa data (respecto de los plazos de acceso) y dónde está almacenada (dónde está geográficamente el servidor)”, alertó.

Para el letrado, la cuestión de la Nube involucra dos dimensiones:

1) Un aspecto funcional, porque el abogado tiene que determinar qué problemas habría.

2) Una dimensión jurisdiccional, vinculada a quién le correspondería intervenir (“La respuesta más honrada es Sólo Dios lo sabe porque en verdad nadie tiene idea, porque la información que va a la Nube puede terminar en Nueva Delhi. Dónde está es una ficción legal.

“¿Qué niveles de control tiene sobre logueo y retención de la data? No sea cosa que el servidor haga limpieza y elimine aquello que deberán usar ustedes después. ¿Cuál es el contrato de uso y privacidad que tendrán del proveedor y de ustedes? ¿Cuál es el derecho de ustedes de auditar la data en la Nube, a ver si realmente cumple con la Ley de Privacidad de la Información que la Argentina exige”, preguntó Elizalde.

“En general, la reacción de los proveedores es no se puede cambiar nada (en los contratos) pero en la medida que se pueda, hay que tratar de hacerlo”, dijo y agregó que “el derecho a auditar no debe perderse nunca”.

“Las compañías de seguros están recibiendo la notificación de la Dirección Nacional de Protección de Data Personal que está inspeccionándolas y es importante saber que se deben tener una política de confidencialidad y que debe ser compartida por el proveedor”, enfatizó el abogado especialista.

Los contratos, para Elizalde, son siempre entre dos partes y son para conversarlos: “Porque después en Tribunales van a quedar solos”, advirtió y agregó: “Es mejor tener claro cuál es la política de seguridad y continuidad del negocio del proveedor”. Recomendó “resolver los conflictos vinculados con estos temas en arbitraje” e invitó a “tener claras las condiciones al firmar un contrato pero también al rescindirlo”, por ejemplo, para evitar inconvenientes al momento de la migración.

Asimismo, el letrado recordó que todos los documentos electrónicos pueden ser prueba. “De hecho –enfatizó– lo son, aunque el valor de esa prueba estará vinculado a la integridad del documento. Si ustedes o el proveedor de la Nube lo manosean, tendrá menor poder de convencimiento en Tribunales”, recordó Elizalde.

Inclusive, destacó la perennidad del dato digital en la Nube, que se duplica, y también guarda el rastro digital de aquello que no se ve, que fue modificado.

Ante un plazo legal, el letrado recomendó preguntar al proveedor sobre un suceso o un dato puntual y no pedir que les pasen toda la información. Se refirió a pedir un rango de fechas, por ejemplo, elementos que deben estar en el contrato como, también, conservar la cadena de custodia (mantener el rastro de todo lo que se hace en la web), el usuario y el proveedor.

En materia de dato digital y rastros de uso, por ejemplo en una computadora, Elizalde recomendó “alejarse de ese ordenador y dejarlo en manos de un especialista, porque prenderlo y apagarlo, o sólo leerlo, altera los contenidos y no serán útiles en un juicio. Las copias forenses deben ser exactamente iguales a las originales”, sostuvo.



La jornada de actualización profesional de Pool Económico Eventos cerró con la exposición de Leandro Ruiz, Solution Architect Partner de Teradata.

Este especialista abordó los beneficios asociados al análisis de grandes volúmenes de datos bajo la consigna Big Data en Acción: análisis del comportamiento del asegurado.

Big Data es, según repasó Ruiz, información que tiene cuatro características:

1) Volumen significativo (grande, porque está por encima de aquellos que están acostumbrados a administrar).

2) Variedad de datos (no son datos estructurados).

3) Velocidad de generación de información.

4) Complejidad en el análisis.

“Casi la mitad de los datos que llegan a las empresas son multiestructurados, aquellos generados a través de aplicaciones, proveen mucho valor y son muy difíciles de estudiar y entender”, dijo el especialista y explicó: “Las herramientas tradicionales ya no permiten analizar la información porque buscarían estructurarla primero para luego estudiarla. En cambio, Big Data se propone analizarla en el mismo formato en que se encuentre y sin perder tiempo en acomodarla”.

El ejecutivo de Teradata presentó un ejemplo didáctico sobre el uso de Big Data en un caso de información telemática, vinculada a la geocodificación de un objeto (su aceleración, sus movimientos, etc.), utilizada por una aseguradora de autos en Estados Unidos.

En el caso presentado, se recolectó información del uso del automóvil (posicionamiento y aceleración) que se cruzó con el perfil de la póliza del asegurado y con información pública sobre accidentología en zonas urbanas (tipos, horarios, frecuencia, características, etc.).

“¿Es efectiva una política de precio diferenciado por conducta de manejo? ¿Conviene hacer seguimiento permanente del asegurado? Hay que hacerse esas preguntas”, anticipó el ejecutivo, aunque lo cierto es que por el cruce de esos datos y su análisis, la aseguradora del ejemplo trabajó sobre las rutas más frecuentes de tránsito y comenzó a estudiar el comportamiento normal en cada una de ellas (velocidades máximas y mínimas), etc. Determinó un patrón estándar en base a velocidad, aceleración y aceleración lateral y determinó cuáles eran los clientes que manejaban por fuera de este canon. Con esa información, realizó una primera calificación en pos de un scoring.

Además, en esa aseguradora pudieron incorporar información de otras compañías y/o pública para determinar qué zonas son más riesgosas en cuanto a su tasa de accidentes y quienes transitan frecuentemente por ellas, para determinar un scorign diferente entre quiénes sí y quiénes no.

“Es un caso de Big Data porque es información compleja por cómo vino provista, y cuyo análisis permite aplicar una política de precios diferenciada, no para espantar a los que tienen hábitos de manejo más agresivos sino para retener a quienes no los tiene”, señaló Ruiz.

“No todo el mundo va a aceptar que le instalen un GPS en su auto pero, por ejemplo, puedo tener una prima promedio y ofrecer una prima menor a quien pueda verificar que representa un menor grado de riesgo”, ejemplificó.

Asimismo, el ejecutivo repasó que la generación de datos es de grandes volúmenes porque se puede generar en tiempo real o no, y aunque se puede configurar el rango de tiempo en que se entrega un dato, debe contemplar muestras de todos los clientes.

“Inclusive, se puede usar la información de forma proactiva para enviar alertas, por ejemplo de granizo, y que el usuario vea que recibe una atención o cuidado especial”, ejemplificó.

El ejecutivo de Teradata señaló las formas en que se analiza la información, una de ellas vinculada a la información del datawarehause, en la que se generan reportes, tableros de tendencias, etc., y. “es parte de la tecnología tradicional”.

“Dentro de ese esquema, Big Data no tiene lugar porque para incorporar los datos en el datawarehause habría que estructurarlos y eso genera un esfuerzo y una inversión de recursos sobre una información que no tiene sentido almacenar”, señaló.

Sucede que una vez generado el scrore del usuario, no tiene sentido mantenerla en línea: “La estructura de datos unificados permitirá contar con la información en los formatos originales”, dijo Ruiz y señaló la importancia de contar con una “plataforma de descubrimiento”, que permita acceder a la base generada, generar el algoritmo de scrore y, luego, sí alimentar al datawarehause con esa información.

La plataforma que Teradata ofrece, se llama Áster, implementa el concepto de Big Data sobre un innovador paradigma y permite que cualquier usuario pueda acceder a información almacenada en estos repositorios, mediante “una instalación rápida, con tiempo de respuesta rápido y un esfuerzo de mantenimiento mucho menor”, finalizó.