Suscríbase y reciba gratis nuestro newsletter y alertas de noticias en su casilla de e-mail
IT SOLUTIONS 2016
Ciberseguridad
De los temas principales que se están discutiendo en seguridad informática, en la jornada organizada por Pool Económico Eventos se analizaron cuatro focos de preocupación de las aseguradoras: la movilidad, la nube, las transacciones online y las brechas de seguridad que se generan con el avance de las tecnologías. COBERTURA COMPLETA.
16 de mayo de 2016
La ciberseguridad es una problemática mundial. La compañía de ciberseguridad RSA Security, la división de seguridad de EMC Corporation, empresa dedicada a la criptografía y al software de seguridad, con sede en Massachussetts, realizó una encuesta que dimensiona el problema. Casi el 80% de 160 organizaciones de 22 sectores industriales diferentes encuestadas dijeron no estar conformes con su capacidad de detección e investigación de amenazas. El 90% dice que no puede detectar las amenazas rápidamente, y el 88% reconoce que no puede investigarlas con rapidez.

Dando un panorama sobre los temas principales que se están discutiendo en seguridad informática, Gabriela Barbeito, periodista especializada en seguros, socia y conductora junto con Raúl Veiga (director de la revista Estrategas) del programa de televisión Pool Económico, inauguró la 5° edición de IT SOLUTIONS PARA COMPAÑÍAS DE SEGUROS, REASEGUROS Y BROKERS, jornada organizada por Pool Económico Eventos que contó con el auspicio institucional de CABASE, la cámara argentina de internet.

Con Colinet Trotta como sponsor platino, SBI Technology y Sediex Servicios Digitales (Kodak Alaris) sponsors oro, y DC Sistemas - Inworx - Smartix y Fadata como sponsors plata, IT SOLUTIONS 2016 abordó varios focos de preocupación:

- La movilidad
. Con la explosión de dispositivos móviles, ya varias aseguradoras han lanzado apps para productores y para asegurados. Lanzan aplicaciones con posibilidades de realizar cada vez más transacciones y aparecen los servicios de autogestión. Por eso es crucial garantizar que toda la información que se transmite entre los sistemas de las empresas y los dispositivos móviles viaje de manera segura. Hoy es más difícil tener el control de qué hace cada uno de los empleados con la información que manejan a través del celular. También se hace más difícil controlar las acciones “fuera de la red” -hoy los empleados se conectan no sólo en la red de la oficina, sino en su casa, en el wi-fi público, en el bar, en cualquier lugar-.

- La nube. Para llevar las aplicaciones y datos corporativos a la nube siempre el tema seguridad es lo que más se discute. Al no tener control total sobre los datos o aplicaciones que están en la nube, las compañías son siempre reticentes a implementar esta tecnología. Por eso surgen soluciones como lo que se llama “nube híbrida”, que es una combinación entre la nube pública y la privada. Es decir, el área de IT elige qué cosas llevar a la nube pública -una nube donde no se sabe dónde está la información almacenada físicamente- y qué otras llevar a una nube privada -donde tiene la información o aplicaciones en centros de datos que conoce y tienen algo de control-. Hoy en la Argentina las aseguradoras se encuentran en plena etapa de decisión si mantener los centros de datos propios y toda la información bajo control, o ir hacia soluciones de nube privada, pública o híbrida para mejorar los costos.

- Las transacciones online. En algún momento las aseguradoras van a tener que vender seguros online, y eso va a ser un desafío. El tema de seguridad acá está bastante resuelto, y ya tenemos experiencias de compras online en otros sectores de la economía. IT SOLUTIONS dio un pantallazo de lo que ya existe para agilizar las transacciones y además resguardar la información de las tarjetas de crédito de los clientes (por ejemplo, las plataformas como MercadoPago). La propuesta fue analizar los desafíos y oportunidades que tiene el sector en todo lo que se refiere a venta online.

- Las brechas de seguridad. La evolución tecnológica provoca a veces brechas de seguridad. Sistemas operativos que no están actualizados, equipos y sistemas obsoletos, todo eso aprovechan los delincuentes para realizar sus ataques. Recordemos que ya no son personas aisladas que lo único que buscaban era introducirse en redes ajenas como un desafío personal, sino que ahora existen redes de delincuentes que buscan un rédito económico con cada ataque. Por eso, la información que tengan almacenada las aseguradoras -tanto propia como de sus asegurados (información económica financiera, historia clínica, bienes que poseen, etcétera)- puede ser muy atractiva.


PANEL 1. LA AMENAZA CONSTANTE.
Los cambios tecnológicos han permitido a las compañías digitalizar la información, mejorar los procesos de negocio y hacer más eficientes los recursos. Con la llegada de Internet y el cloud computing, las compañías deben abrirse al exterior y allí es donde la seguridad informática comienza a tomar mayor relevancia.

Nicolás Ramos, Director del área de Advisory, (Especialización en Cybersecurity) de EY, abrió el primer panel de la jornada con su disertación “Creando confianza en el mundo digital. Encuesta Global de Seguridad Informática, tendencias y situación del mercado local y global”. Contó, en primer lugar, un caso real: En febrero de 2015 hubo un terrible ataque informáticos a entidades financieras en el que se estima que se robaron 1.000 millones de dólares. Sin embargo, sostuvo que el robo no es la única modalidad de ataque y explicó que en 2016 viene tomando fuerza el ransomware: organizaciones criminales realizan ciberataques que encriptan la información de entidades y organizaciones para luego pedir multimillonarios rescates. Hasta que no paga el rescate, el dueño de la información no puede acceder a ella. “Recientemente encriptaron las historias clínicas de más de 10 mil pacientes de un hospital y pidieron 3,6 millones de dólares para desencriptarlas. Muchas compañías están pagando estos rescates, lo que impulsa a esta modalidad de delito, que se está haciendo más frecuente. Con una inversión muy baja, los criminales logran ganancias extraordinarias”, contó.

Combatir el cibercrimen le cuesta al mundo 575 mil millones de dólares al año. Sólo en América Latina y Caribe se gastan 90 mil millones. “En nuestra región, los principales blancos de estos ataques son, en primer lugar, empresas de las industrias química, manufacturera y minera; en segundo lugar, las de servicios financieras y de seguros. Estos crímenes vienen migrando de target: antes atacaban más a entidades gubernamentales y ahora van más por los privados”, advirtió Ramos.

En cuanto a las tendencias del ciberataque en América Latina para 2016, Ramos señaló que habrá un incremento y diversificación de ataques de malware a dispositivos móviles y que habrá infecciones de ransomware generalizadas. “Estamos hablando de organizaciones cibercriminales que utilizan todo el dinero que obtienen de robos y rescates para financiar otras actividades ilegales, por ejemplo armas y drogas. Los atacantes aprovechan las vulnerabilidades de todo el entorno operativo, incluidas las personas y los procesos”, remarcó.

Al respecto, compartió resultados de la encuesta Global Information Security Survey (GISS) de EY de 2015: El 59% de los consultados cree que la principal fuente de ciberataque son estas organizaciones criminales mientras que un 56% señaló a sus propios empleados. “El 84% gastará en 2016 lo mismo o menos en seguridad que el año pasado. En contraposición a eso, el 49% dijo que es necesario un aumento del 25% de los fondos para proteger la organización acorde a la tolerancia al riesgo definido por el directorio. Como se ve, la economía de la seguridad informática es todo un tema”, completó.

“No es fácil anticiparse a los ataques. Para hacerlo nosotros recomendamos un enfoque que consta de tres pasos. 1) Activar el baseline: implementar las medidas básicas de seguridad. Aquí la organización ve la seguridad como un costo, pero necesario. Es un enfoque más estático y se basa en las amenazas que yo ya conozco. 2) Cuando ya tenemos dado el primer paso, podemos adoptar un enfoque dinámico para integrar la ciberseguridad al negocio (que sea un valor del servicio que se ofrece a los clientes, que forme parte del proceso de todos los proyectos de la compañía). 3) Una vez logrado el segundo paso, puedo empezar a anticiparme en materia de ciberseguridad. Es un enfoque orientado a reconocer mis ciberamenazas, mis “joyas de la corona”. La idea es llegar a un enfoque predictivo haciendo inteligencia sobre las ciberamenazas desde adentro, para ver venir los factores de riesgo. Es sumamente difícil de hacer, pero es a lo que hay que tender”, propuso.

Para finalizar, Ramos precisó qué necesita hacer una organización en este sentido. Enumeró: “Identificar claramente sus activos críticos o ‘joyas de la corona’ digitales; tener conocimiento de lo que puede perjudicar a la organización y de los escenarios de riesgos y amenazas cibernéticas para el negocio; realizar una evaluación de madurez de la seguridad cibernética, analizando el nivel de riesgo aceptable; realizar un análisis del perfil de ciberamenazas y una inteligencia avanzada sobre las mismas; implementar un SOC (Centro de Operaciones de Seguridad) más avanzado ya sea in-house o tercerizado”.

Paola Simonian, Tech Solution Specialist de Oracle Argentina, tomó la palabra en seguro lugar presentando su disertación “Protección de datos en entidades financieras”. Ella definió que la seguridad de la información es el conjunto de medidas preventivas y reactivas de las organizaciones y de los sistemas tecnológicos que permiten resguardar y proteger la información buscando mantener la confidencialidad, la disponibilidad e integridad de la misma. “Además de proteger los datos de posibles ataques, se debe tener lista una respuesta en caso de que un ataque suceda. Al mismo tiempo, se busca mantener una alta disponibilidad de los datos, de cuidar su integridad y su confidencialidad. El objetivo es mantener mi entorno siempre productivo, siempre protegido y siempre en disponibilidad”, comenzó, poniendo como base que resulta imposible impedir la totalidad de los ataques y que, por eso el, foco debe estar puesto especialmente en desarrollar la capacidad de respuesta de una empresa ante un ataque.

Simonian compartió información de Kaspersky Global IT Security Survey 2015, encuesta que sostiene que el 90% de las 7.000 empresas consultadas ha experimentado alguna forma de amenaza externa y que el 73% ha tenido al menos un incidente de seguridad interno. “Con esto, queda en evidencia que la seguridad tradicional ya no es suficiente. Mantener el perímetro hipersecurizado ya no alcanza”, concluyó al respecto.

La experta reveló que el 94% de los ataques son contra los servidores, dato que toma más relevancia si se combina con el hecho de que el 66% de los datos más sensibles están en bases de datos que están en esos servidores. “Sin embargo, el grueso de las inversiones en seguridad (el 67% del total) está puesto en los perímetros, en las redes -advirtió Simonian-, y apenas un 15% apunta a proteger las bases de datos. Hay que prestar atención sobre en dónde estamos poniendo el dinero. He visto que se securiza mucho lo vinculado a producción pero de desprotege lo relacionado a desarrollo & testing, cuando en la segunda área usan las mismas bases de datos que en la primera. ¡Ojo con esto! Los criminales saben que es muy difícil entrar en las bases de datos de producción y entonces van por ellas en desarrollo & testing”, advirtió.

La especialista de Oracle Argentina dio un ejemplo de cibercrimen en Latinoamérica: Una de las mayores instituciones financieras de banca múltiple en México fue víctima de un ataque de cibercrimen dirigido a exfiltrar información sensible de cuentahabientes usuarios de puntos de venta, cajeros automáticos y banca en línea. El ataque fue perpetrado directamente hacia el data warehouse principal del banco. “Cuando fuimos a buscar los datos de auditoría, no encontramos nada. El atacante había entrado a la base de datos y desactivo las auditorías nativas de bases de datos. Lamentablemente, el banco tenía auditorias nativas solamente de base de datos y esto sirve apenas para análisis forense. Además, el banco no tenía preparada ninguna medida proactiva ni de monitoreo sobre los entornos. Así, no pudimos saber cómo fue que se llevaron la información. ¿Cómo resolvimos el problema? Las tecnologías implementadas como controles compensatorios para la mitigación del riesgo fueron: hicimos un cifrado de los datos sensibles que había en las bases de datos, hicimos controles y auditoría de usuarios privilegiados en bases de datos (no necesariamente todos los que tienen acceso a la información necesitan tenerlo, y eso hay que tenerlo bajo control; hay productos que nos permiten hace segregación de funciones para que cada uno acceda hasta donde le corresponde), hicimos enmascaramiento de datos sensibles en ambientes no-productivos y, finalmente, realizamos un monitoreo de la actividad y auditoría en las bases de datos. Como conclusión, sospechamos que alguien participó desde adentro”, remató.

PANEL 2. Desafíos de la movilidad.
Luego del Coffee Break & Networking de IT SOLUTIONS 2016, jornada organizada por Pool Económico Eventos, fue el turno del tema movilidad. La llegada de los dispositivos móviles y la tendencia al BYOD -trae tu propio dispositivo- ha traído numerosas oportunidades pero también nuevos retos para las organizaciones, como la integración de sistemas, nuevas aplicaciones y seguridad de la información.

Bajo el título “Ventajas de la digitalización descentralizada y remota”, Enrique Vollenweider, Product Manager en Kodak Alaris, abrió el segundo panel del encuentro hablando de la captura basada en la web, tarea para la que Kodak ya ofrece el producto Info Input Portfolio que llegará a la Argentina en los próximos meses. Definió que la captura basada en la web es la captura que se extiende a cualquier organización en la que hay un browser. “En los programas tradicionales de captura, se necesita una licencia por unidad de digitalización. Además, es necesario llevar las actualizaciones y la instalación del software por separado en cada equipo. Así, tengo una licencia por Departamento, eso está conectado a uno o varios servidores y, a su vez, esos servidores están conectados al sistema de gestión RP”, detalló, para luego poder comparar este sistema con el que la captura basada en la web propone.

Info Input, en primer lugar, logra eficientizar el uso de las licencias. “La ventaja de Info Input es que solamente requiere de un browser. El software se instala en un servidor y las organizaciones que se conectan a él -desde su intranet- pueden copiar un link y directamente hacer la captura a través del browser. Otra de sus ventajas es justamente que la instalación se hace directamente en el servidor y, por lo tanto, no requiere tener una licencia por unidad. Se maneja con licencias flexibles: compro una, la instalo en el servidor y de acuerdo a mi necesidad puedo añadir más o menos licencias. Las actualizaciones y configuraciones también se hacen a través del servidor por lo que no resulta necesario ir unidad por unidad, logrando un ahorro de tiempo importante”, comparó Vollenweider.

Después destacó que, además, este soft logra que los documentos no se amontonen indiscriminadamente en una carpeta, sino que agrega metadatos que luego servirán para buscar y encontrar los datos a partir de las variables que se deseen establecer. “Hay que aplicarle inteligencia a los datos para que puedan ordenarse, buscarse y encontrarse tal y como es necesario”, explicó.

“La captura puede ser distribuida o centralizada. La captura distribuida está asociada a escaners pequeños de menos de 100 papeles por minuto mientras que captura centralizada se refiere a grandes equipos que llegan hasta 210 papeles por minuto. Nosotros ofrecemos este software para ambos tipos de captura. El primer producto es el Info Input Express, desarrollado para organizaciones medianas y pequeñas. Es fácil e intuitivo. El segundo producto es el Info Input versión 4.0, desarrollado para todo tipo de organizaciones, para captura descentralizada y centralizada. El tercer producto es el Info Input Transactional también versión 4.0, que el igual al anterior pero que suma la capacidad de embeberse en una aplicación de negocio”, describió el especialista.

Para cerrar, Vollenweider contó casos de éxito de este soft que sirvió a un hospital alemán, a un proceso eleccionario en Colombia y a la toma de exámenes en la Universidad de Cambridge, Inglaterra.

Luego fue el turno de Jonathan Demb, Gerente Comercial en Smartix, quien se presentó bajo la premisa “Home Insuring: el poder de la autogestión en manos del asegurado”. Inició definiendo que el home insuring es como el home banking pero de seguros y que le permite al intermediario de seguros ofrecerle al asegurado la posibilidad de que cuente con una herramienta para hacer determinadas consultas, agilizando los tiempos de respuesta, mejorando el servicios, reduciendo los costos de la atención y trayendo beneficios en materia de fidelización.

El mundo del seguro está trabajando sobre el canal Mobile, que permite realizar muchas gestiones en cualquier momento desde cualquier lugar. Y, como toda innovación plantea desafíos. Demb los analizó todos, entre ellos la tecnología, la implementación y la autogestión.

“Respecto a la tecnología, para desarrollar home insuring nos hemos apoyado en html 5 como lenguaje de programación por la cantidad de beneficios que ofrece: es compatible con las versiones de navegadores (se desarrolla una sola herramienta y no hace falta adecuarla a cada sistemas operativos), tiene compatibilidad multiplataforma (permite ser accedida desde cualquier dispositivo), mejora la interacción del usuario con el sitio (ofrece intuición para que se navegue con confianza), genera mayor velocidad en la carga del sitio (acapara la atención rápidamente para que el navegante no se aburra y desista de realizar la transacción), posibilita incluir elementos gráficos y multimedia (hace mucho más dinámica la navegación), admite uso de geolocalización (desde el back office se puede acceder a un montón de información), favorece al posicionamiento en buscadores y, además, el código es fácil de editar (lo que reduce los tiempos de mantenimiento y, por ende, los costos)”, detalló.

El segundo desafío para desarrollar el concepto de home insuring fue el de la implementación, para lo que fue necesario definir una serie de procesos que permitieran armar la red de distribución. El especialista mostro en vivo algunos detalles de la herramienta que, paso a paso, permite armar esa red hasta llegar a la verdadera experiencia de home insurig: el sitio web de autogestión del asegurado que puede loguearse con su usuario y contraseña y consultar las pólizas que ya tiene contratadas y, además, comprar nuevos seguros. “La información se muestra de manera adaptada a cada dispositivo y en todos tiene las mismas funcionalidades”, detalló.

El tercer desafío fue el de la autogestión propiamente dicha. “¿Cómo hacemos para los usuarios gocen de un beneficio real? Dándoles funcionalidades. ¿Qué funcionalidades ofrece esta herramienta? Cotizar productos de seguros o asistencias, descargar la póliza en formato PDF y guardarla en el celular, consultar las pólizas, generar endosos, compra en línea, cambiar las formas de pago, acceder a cupones de descuentos y registrar las cotizaciones que se hagan, entre otras”, enumeró.

Demb repasó algunos de los beneficios de home insurign: “La implementación se realiza en el menor time to market de Latinoamérica; permite personalizar el look&feel en función al sponsor/canal, lo que garantiza fidelización del operador y del asegurado; permite implementar canales directos e intermediados, lo que ofrece alcance ilimitado; admite múltiples negocios, productos y vendedores; favorece la penetración de productos; permite generar un acercamiento con los clientes, ya que materializa una sucursal de la compañía en el bolsillo del asegurado; genera procesos de ventas integrados; tiene compatibilidad multiplataforma; es intuitivo y no necesidad de capacitaciones previas; además, brinda autonomía y transparencia a los clientes”, detalló.

A su turno, Rodolfo Colautti, Jefe de Nuevas Tecnologías y Sistemas de Seguros Rivadavia, presentó la experiencia de la aseguradora bajo el título “Desafíos de la movilidad. Caso de éxito: lanzamiento de la app móvil para asegurados”.

Lo primero que definió fue que Rivadavia mantuvo a lo largo de los años una política de incursionar siempre en las nuevas tecnologías pero desde una visión conservadora propia de la cooperativa, eligiendo cuidadosamente cada paso que se da.

Comenzó repasando la historia de la relación de la compañía con la tecnología desde 1983 hasta hoy, para dar cuenta de que los logros actuales son consecuencia de una serie de decisiones consecuentes. Contó que la empresa compró su primer mainframe en el año 1969, “lo que muestra el lugar de importancia que siempre tuvo la tecnología para Rivadavia”.

Colautti ingresó a la compañía en el marco de un proyecto para la creación de una red satelital que se dio en 1990. “Pusimos antenas satelitales en todas nuestras sucursales y pudimos distribuir masivamente las terminales (tres por sucursal: Caja, Siniestros y Producción). Fuimos la primera aseguradora del país en tener una red satelital”, marcó como hito.

En 1994 llegaron las computadoras personales y en 1995 llegó Internet. “Como nuestra red era satelital, no nos podíamos conectar a internet. Había que resolverlo y empezamos con los modem de 56k. En el año 2001 armamos internamente una VPM, una Red Privada Virtual. Las PC se conectaban a internet con esos modem, usando el sistema que utilizábamos en las terminales, el viejo 3270”, explicó y remarcó el aporte que esto resultó al ahorro de costos en una época dura para las economías de las empresas, ya que para armar la VPM sólo se requería una conexión a internet. Hoy Rivadavia tiene 40 agencias y la conectividad la trabaja con varios proveedores.

Para cuando el mainframe se había convertido en un equipo demasiado grande y sus costos de hardware y sistema operativo eran demasiado elevados, Rivadavia contrató, en 2007, con IBM un sistema operativo AIX con un servidor Power. “Son servidores más chicos pero muchísimo más potentes que aquel mainframe”, comparó Colautti.

Esto le permitió a Rivadavia potenciar su página web para brindar cada vez más servicios, hasta que en 2008 montó su Oficina Virtual. “Fue un hito para la cooperativa porque fue allí donde se apoyó para lograr el gran crecimiento que tuvo en los últimos diez años. De 2005 a 2015 pasamos de 160 mil autos asegurados a más de un millón”, subrayó. Hoy, a los más de 4.000 productores que trabajan con la aseguradora, la Oficina Virtual les permite emitir coberturas, gestionar la cobranza, imprimir certificado y hasta tomar la denuncia de siniestros.

Finalmente, en 2013 llegó la movilidad a Rivadavia. “Para el desarrollo de la aplicación móvil para asegurados, primero pensamos en tercerizar el trabajo, contratar un proveedor que nos dé un producto llave en mano. Pero como los costos eran muy altos, se decidió que lo hiciéramos nosotros internamente desde Sistemas. Y lo logramos. El año pasado, como parte de los festejos del 70 aniversario de la cooperativa, lanzamos este producto al mercado”, recuerda orgulloso el Jefe de Nuevas Tecnologías y Sistemas de Seguros Rivadavia.

Los objetivos de la aplicación móvil para asegurados están relacionados con la política de la compañía de ofrecer una atención personalizada. “Pero personalizada no se limita solamente al cara a cara. El objetivo es darle al asegurado lo que necesita y hoy por hoy el celular es clave para esto. Así, la meta de la aplicación era llegar al asegurado de una forma nueva que él nos estaba requiriendo”, postuló Colautti al mismo tiempo que volvió a remarcar que todo se hizo con recursos propios, tecnológicos y humanos.

El experto explicó que las funcionalidades básicas de la aplicación apuntan a que el asegurado tenga disponible lo que necesita en los momentos de crisis como lo son los siniestros, cuando uno requiere documentación vinculada con su seguro. “El asegurado ingresa con usuario y contraseña (que deben generarse previamente desde nuestra página web; la recomendación, para mayor comodidad, es que hacer este primer paso desde una PC) y puede acceder a la información de sus pólizas, pedir el auxilio mecánico, intercambiar los datos con un tercero en caso de siniestro (se cargan en la app los datos del tercero y su número de teléfono, y se le envían a éste por SMS los datos de nuestro asegurado), consultar sus pagos, ver los datos de su productor y de los centros de atención de la cooperativa, y ver las recomendaciones que le damos sobre qué hacer en caso de siniestro con lesionados o fallecidos. También hay una herramienta para la ubicación del auto”, detalló el especialista.

El desafío más grande de este desarrollo según Colautti fue el de trabajar sobre todas las plataformas móviles, que finalmente fueron Android, iOS y Windows Mobile. Señaló que una vez que se consulta la póliza en la aplicación desde su teléfono, la misma queda registrada en la base de datos del celular y, por lo tanto, se podrá volver a acceder al certificado de cobertura incluso cuando no se tenga Wi-Fi o 3G/4G. Esta ventaja, sin embargo, no aplica con los recibos de pago ya que, por una cuestión de seguridad, no quedan guardados en la base de datos del celular y sólo pueden ser visualizados on line.

“Las ventajas de esta app son la respuesta inmediata, la concentración de servicios y la asociación de nuestra marca con la innovación. Al respecto de esto último, aplicamos coherencia visual para que el asegurado encuentre en la app la misma estética que encuentra en la página web o en la terminal de autoservicio de nuestros centros de atención. Por el lado de las desventajas destaco que la normativa viaja más despacio que la tecnología. El asegurado ya tiene su póliza en el celular pero hay que ver si el policía que les pide los papeles del auto le acepta esta modalidad. Hemos tenido quejas y consultas sobre estas cuestiones”, explicó.

Colautti repasó los logros obtenidos desde el lanzamiento de esta aplicación. “En primer lugar destaco el retorno de inversión. Se evitan muchos contactos con nuestro centro de atención ya que desde la app el asegurado puede resolver muchos temas solo. Con esto se reemplazan horas hombre en materia de atención telefónica o personal y, así, se reducen costos. En segundo lugar, está el hecho de que se abre un nuevo canal de comunicación que no tiene límites”, enumeró.

Para cerrar, el ejecutivo de Rivadavia adelantó los proyectos a futuro que tiene entre manos: “La idea es ir incorporando nuevas funcionalidades. Hay un proyecto para que el asegurado, por ejemplo, pueda hacer una pre-denuncia en caso de siniestro, cargando algunos datos como la patente. Otra meta es el procesamiento de imágenes para que, si hay un accidente, el asegurado puede sacar y registrar fotos. Por último, sin duda se viene una aplicación móvil para productores y otra para inspectores y peritos”, finalizó.


PANEL 3. Llevar o no las aplicaciones a la nube, esa es la cuestión.
El cloud computing es cada vez más importante en la industria del seguro. A pesar de que las compañías se están animando a llevar ciertos procesos de negocio a la nube, lo cierto es que todavía los procesos core se mantienen dentro de un territorio controlado. ¿Cuáles son las ventajas y desventajas de migrar a la nube y cuáles los requisitos para mantener las aplicaciones seguras?

El tercer panel de la jornada IT SOLUTIONS 2016, organizada por Pool Económico Eventos, fue por la tarde, luego del almuerzo libre. El primer especialista en tomar la palabra fue Diego Calderón, Jefe de División Tecnologías y Sistemas en Federación Patronal Seguros. El título de su disertación fue “Motivación para ir de la nube Privada a la nube Pública”.

Lo primero que hizo fue hablar de los aspectos más relevantes vinculados a la seguridad de los servicios. Dijo que primero es importante pensar qué tipo de nube queremos.

Los servicios que están en la nube puede ser considerados de tres formas: las plataformas pueden ser IaaS (infrastructure-as-a-service o infraestructura como servicio) o PaaS (platform-as-a-service o plataforma como servicio), o pueden ser SaaS (software-as-a-service o software como servicio). “Si hablamos de IaaS o PaaS -nube privada-, la seguridad la tenemos que incorporar nosotros a la nube. El conocimiento de la seguridad de los servicios que exponemos tiene que estar del lado de nuestro equipo técnico. Nosotros controlamos. En cambio, en SaaS -nube pública- no aportamos el control nosotros. Tenemos que exigirle a nuestro proveedor de servicio que sea seguro, que aporte lo mismo que exigimos a nuestra plataforma interna en materia de seguridad. Por eso la elección del proveedor de nube pública es clave”, explicó y definió que es por estas diferencias entre nube privada y nube pública que algunos servicios son factibles en una nube y no en la otra. “La nube privada es una zona de confort que nosotros manejamos y que tenemos bajo control. En la nube pública, en cambio, no tenemos tanto control propio sino que lo tenemos que exigir”, diferenció el especialista.

Y dio ejemplos: Si hablamos de un CRM, es necesario exigir que ese CRM sea seguro. Hay que exigir, por ejemplo, que los controles y las medidas de lo que el usuario hace con ese CRM estén de nuestro lado (que alguien de mi empresa, del sector de Seguridad, lo administre; no puedo dejar que me lo administren desde afuera). “Tengo que tener cuidado con los datos personales, con los back up de esa información y, además, tengo que poder decidir si esa información puede ser sacada de la nube o no. Lo tengo que poder controlar yo”, remarcó.

Una vez establecidas estas definiciones, compartió la experiencia de Federación Patronal que puso la aplicación de su negocio en una nube híbrida. “Dejamos los programas en la pública y las bases de datos en la privada”, definió.

Federación tiene dos aplicaciones de negocio, una para la red interna, que quedó en la nube privada, y otra para los productores, prestadores, abogados, centros médicos, repuesteros, etc. -gente que se conecta a la nube privada de la aseguradora vía un servicio puesto en internet -. “Es ahí, en la aplicación de negocio para productores y proveedores, donde vimos que hay posibilidades de migrar servicios a la nube híbrida: yo mantengo el control de mis bases de datos, pero la plataforma a la que se conectan todas estas personas está en la nube. Hicimos las pruebas y la verdad es que funciona”, sostuvo.

En cambio, la aplicación de negocio interna de Federación quedó dentro de su nube privada porque allí los tiempos de respuestas son óptimos. “Hicimos pruebas para llevarla a la nube híbrida pero los tiempos de respuestas que obtuvimos no fueron aceptables”, justificó el ejecutivo y repitió aquello de que algunas aplicaciones o servicios son factibles en una nube y no en la otra, justamente porque a algunas las optimiza y a otras no.

Calderón contó que hicieron pruebas de producción en la nube híbrida para la aplicación de negocio para productores pero que la experiencia tampoco resultó. “Sin que se den cuenta, pusimos a un grupo de productores a trabajar en la nube pública para tener pruebas efectivas de producción -sin arriesgar ningún dato ya que todas las bases de datos siguieron en nuestra nube privada- pero vimos que los tiempos de respuesta se fueron poniendo pesados. No funcionó”, lamentó, pero volvió a repetir el concepto de que hay que analizar bien qué servicios vale la pena llevar a la nube.

¿En qué momento conviene hacer la migración de la nube privada a la nube pública? Si la infraestructura privada reporta muy buenos tiempos de respuesta, ¿qué ganaría con una nube pública? “Optimización de costos y de tiempos es la respuesta -postuló el especialista-. En la privada tengo que ir comprando hardware periódicamente, hacer mantenimientos y actualizaciones en materia de parches de seguridad. Eso lleva tiempo y dinero, cuando lo ideal es que los recursos de Sistemas estén invertidos en el negocio (para sacarle jugo a las herramientas), y no es infraestructura (viendo qué nube es más ágil o que cluster es mejor)”, postuló.

Para cerrar, adelantó que Federación Patronal va a seguir avanzando con servicios en la nube pero siempre evaluando qué servicios realmente se potencian con esa nube o sacan ventaja de ella, y viendo qué tipo de nube requiere el negocio. “Si al negocio le sirve el servicio en la nube porque realmente es más dinámico, nosotros lo vamos a usar. Pero eso no significa que vayamos a tener todo volcado a la nube pública. Hay que evaluar cosa por cosa. Hicimos muchas pruebas durante un año para lograr nuestra nube híbrida. Hay que ver qué es mejor para cada necesidad”, finalizó.

Diego Taich, Director de Tecnología y Seguridad en PwC Argentina, habló sobre “La Nube: casos de uso, regulación, seguridad y control”.

Compartió datos de la consultora Gartner que sostienen que la nube pública representaba ya en 2015 unos 175 billones de dólares con tendencia de crecimiento para este año de casi el 14%. Dijo, además, que según una encuesta de PwC el 69% de los consultados a nivel global (en Argentina el 58%) consumen servicios de seguridad basados en la nube. Respecto a qué tipo de servicios se consumen, se destacan monitoreo en tiempo real, autenticación, gestión de identidades, productos de ciberinteligencia y protección de end-points.

El directivo de PwC también señaló algunos casos de uso: web hosting, servicios de IT (email, back up, almacenamiento), outsourcing de data center, recuperación ante desastres, proyectos temporales, seguridad como servicio, aplicaciones web y mobile, ambientes de desarrollo, financial services e ecommerce, big data y publicidad. “Respecto de proyectos temporales, la cosa es muy interesante. Muchas veces debemos montar una campaña que requiere de una gran inversión pero que sólo va a durar un par de meses luego de los cuales hay que desmantelar todo. Para resolver esto, la nube trae su modelo de costos que parece ser muy apropiado para este tipo de casos, porque es muy flexible”, remarcó.

Taich punteó algunas preguntas que toda empresa debe hacerse para evaluar si la nube se adapta a sus requerimientos. Son temas que van desde la estrategia de la compañía, pasando por la cultura organizacional, las regulaciones y cumplimientos, y los costos, hasta la cuestión operativa. “Hay que ver el nivel de alineamiento con los objetivos de la estrategia del negocio. A veces hay ciertos drivers que apalancan el caso de la nube, por ejemplo costos y agilidad. Respecto de la cuestión cultural, a veces es necesario romper algunas barreras internas para empezar a trabajar con un proveedor externo al que le tengo que exigir y al que debo monitorear. Se debe participar a las áreas de Compliance, Auditoría, Finanzas, etc. En cuanto a las regulaciones, debo trasladar a mi proveedor el marco de control y regulación que pesa sobre mí, para asegurarme de estar en cumplimiento. Por el lado de los costos, hay que ver si resulta en un ahorro y prever el impacto financiero. Finalmente, en cuanto a operaciones, el modelo cloud es interesante cuando la empresa tiene una distribución geográfica muy amplia, aunque en algunos lugares se presenta el desafío de la conectividad. También aquí entra la disciplina de gestión del proveedor”, amplió.

El Director de Tecnología y Seguridad en PwC Argentina compartió algunas predicciones para los próximos diez años: “Para 2017, cada persona tendrá 24 identidades digitales y 5 o más dispositivos conectados a Internet. En 2018, habrá seis mil millones de “cosas” conectadas a internet (autos, ropa, cafeteras, edificios, etc.) que solicitarán soporte. Para 2020, el 5% de las transacciones económicas se harán sin intervención humana, el 90% de los datos IoT estarán en la nube y los asistentes digitales podrán reconocer a los individuos por la cara y la voz. Habrá un cambio de paradigma: hoy son las personas las que hacen transacciones en internet, pero dentro de algunos años las harán los dispositivos sin nuestra participación. Ya en 2022, el 95% de las fallas de seguridad en la nube serán producto de errores del cliente (no del proveedor de cloud). Finalmente, en 2025 la transición hacia los servicios cloud de las empresas se acelerará (para las pymes, esto se dará antes ya que el caso de uso para las pequeñas y medianas empresas es muy poderoso). El 70% de todos los datos de las organizaciones estarán alojados en la nube, por lo que el tema seguridad es muy relevante”, punteó.

Respecto a los desafíos que enfrentan las organizaciones, señaló que, dada la convergencia de los distintos servicios en la nube, es preciso llevar a cabo la evaluación de las distintas medidas de seguridad del proveedor cloud y evaluar cada una de sus capacidades de seguridad: “Por ejemplo, podemos segmentar las redes en una infraestructura cloud virtual privada de la mima forma que lo que haríamos en el data center. También se debe gestionar el acceso a los datos: hoy por hoy el proveedor de nube puede acceder a los datos, pero se está trabajando para ofrecer soluciones de encripción de manera que sólo la organización usuaria pueda acceder a los datos sensibles”, adelantó. También hay que prestar atención al nuevo proceso de gestión de riesgos que todas estas nuevas amenazas significan. “Se debe aumentar la periodicidad de ejecución de dicho proceso a medida que se incorporan nuevas tecnologías”, recomendó y volvió sobre un tema clave: “Hay que validar el cumplimiento por parte del proveedor de cloud sobre los distintos requerimientos legales que pesan sobre nuestra actividad para asegurarnos de estar en cumplimiento nosotros”.

Para cerrar, hizo un repaso de las medidas a tomar para estar protegidos en la nube: “Asegurarnos de que el proveedor satisface los requerimientos de la institución en términos de costo, calidad de servicio, seguridad, cumplimiento de los requisitos normativos/legales y de gestión de riesgos; llevar a cabo en forma periódica un proceso de análisis de riesgos -formal y alineado a los requerimientos de la industria- sobre el entorno de la nube que se prevea utilizar (el sistema de información, la tecnología informática y sus recursos asociados); ver que el proveedor garantice la integridad y confidencialidad de los datos de la organización y asegurar que el servidor donde se aloja la información de la misma no comparte con otras entidades; establecer un plan de continuidad de las actividades delegadas en terceros; incluir un plan de monitoreo continuo tanto operacional como sobre el prestador de servicios a fin de velar que éste mantiene controles efectivos; disponer de un plan de gestión de crisis e incidentes adecuado al modelo disponible en la nube; importante: los contratos y acuerdos de nivel de servicio firmados con los proveedores deben ser específicos en cuanto a la propiedad, la ubicación y el formato de datos; en caso de que el procesamiento cloud se realice fuera del país, es necesario que el proveedor de nube fije la ubicación geográfica en la cual los datos serán procesados y almacenados”.

En tercer lugar, y para cerrar el panel, fue el turno de Gabriel Gordon, Director de Windows y Office de Microsoft para Argentina y Uruguay. El título de su disertación fue “La nube segura. Por qué migrar a la nube es una ventaja”.

Lo primero que definió Gordon fue que la nube se está convirtiendo en parte integral de la transformación del negocio. “Debemos aprovechar el expertise de los proveedores, las economías de escala que ofrecen y sus fuentes de innovación”, propuso. Para poner al auditorio en autos, reveló que los riesgos de ciberataques pueden costar hasta tres billones de dólares al año, que sólo en 2013 hubo 800 millones de registros de individuos revelados y que el cibercrimen se lleva entre un 15% y un 20% del valor creado por internet (de las transacciones hechas on line).

El directivo de Windows planteó custro pilares sobre los que tiene que estar montada una nube para que sea calificada de confiable: “Primero, seguridad: que garantice la protección de la confidencialidad, disponibilidad e integridad de los datos. Segundo, privacidad y control: que nadie pueda usar nuestros datos de una manera que no aprobamos. Tercero, conformidad: garantizar que nuestro contenido se almacena y administra de acuerdo a leyes, regulaciones y normas vigentes. Cuarto, transparencia: tener visibilidad de cómo nuestros datos son usados y manejados”, enumeró y, además, planteó una pregunta que deben hacerse las aseguradoras: Una vez que una compañía no quiere más el servicio de nube, ¿qué hace el proveedor con su información?

¿Qué se le debe exigir al proveedor de nube en materia de seguridad? Que los datos estén protegidos con los máximos estándares de seguridad, y que estén encriptados tanto en tránsito como en reposo. “Qué hace Microsoft en este sentido: Nuestros data centers tienen medidas de seguridad físicas state-of-the-art. Operamos un equipo de respuesta a incidents 24x7 para mitigar amenazas y ataques. Encriptamos la transferencia de datos entre nuestros data centers. Y protegemos los datos almacenados con herramientas y proveemos acceso a capacidades de mayor encripción”, relató.

¿Qué se le debe exigir al proveedor de nube en materia de privacidad y control? Un control de quién accede a nuestros datos. Además, debemos tener la garantía de que, si dejamos de contratar a ese proveedor, podremos llevarnos nuestros datos y ellos los borrarán. “Es importante saber qué puede hacer mi proveedor con mis datos. Nadie lee las políticas de privacidad (ni de GoogleDrive, ni de OneDirve, ni de Dropbox, etc.). Algunas de esas políticas dicen que el proveedor puede hacer lo que quiera con la información que se sube allí. Usarla, modificarla… lo que quiera. Los invito a chequear que las de OneDirve dicen que lo tuyo es tuyo para siempre y que queda en OneDirve mientras vos lo dejes ahí y nada más. Nosotros ofrecemos flexibilidad, elección y transparencia de dónde se almacenan sus datos, no usaremos sus datos con propósitos comerciales o para publicidad, ni divulgaremos la información fuera de Microsoft, excepto con su consentimiento. Además, proveemos una variedad de herramientas para que el cliente pueda extraer sus datos y nosotros los borramos a los 180 días a partir de que el servicio expira o se finaliza”, expuso.

¿Qué se le debe exigir al proveedor de nube en materia de compliance? Como ya se dijo, el contenido debe almacenarse y administrarse en cumplimiento de las leyes, regulaciones y normas internacionales. El cliente debe tener la posibilidad de ver qué certificaciones tiene cada servicio. “Nosotros lideramos la industria con el cumplimento de las últimas normas para la privacidad y seguridad de datos, como la ISO 27018. Regularmente tenemos auditorías independientes para certificar cumplimiento y trabajamos con clientes y reguladores para ayudarlos a cumplir los requerimientos”, puntualizó Gordon.

¿Qué se le debe exigir al proveedor de nube en materia de transparencia? Que explique en lenguaje claro y llano cómo usa, administra y protege nuestros contenidos. “En Microsoft proveemos una política estricta y comprensible de para qué sí y para qué no usaremos sus datos. Para cada servicio, brindamos información de dónde sus datos pueden ser almacenados y procesados”, sintetizó.

Al respecto de las ventajas de la nube, destacó una: el aumento de la productividad. “Yo uso el concepto del desapego emocional y material. Se refiere a hecho de que, si a mis dispositivos les pasa algo, mi información sigue estando ahí, disponible, en la nube. Si mi equipo se rompe o me lo roban, yo puedo seguir trabajando porque todos mis correos electrónicos y archivos de trabajo están en la nube. Esto nos permite ser más productivos porque podemos, desde cualquier lugar y en cualquier momento, acceder a nuestra información y seguir trabajando”, remató.


PANEL 4. Tecnologías aplicadas a la venta de seguros.
El uso de la tecnología ha impactado en la forma de comercialización de los seguros. Hoy los nuevos sistemas permiten optimizar los procesos de marketing y ventas. El futuro muestra una tendencia hacia el comercio electrónico en el negocio masivo. ¿Cuáles son las perspectivas y cómo asegurarse de que las transacciones sean seguras y no se vean amenazadas por delincuentes informáticos?

Luego del segundo Coffee Break & Networking de IT SOLUTIONS 2016, jornada organizada por Pool Económico Eventos, abrió el cuarto panel de disertaciones Juan Pablo Giordano, Gerente de Servicios de Consultoría de SBI Technology, con su charla “Aportando inteligencia a nuestros procesos de segmentación con Análisis Predictivo y Analytics”.

SBI hace foco en Inteligencia de Negocios y Business Analytics para Seguros.

El mercado está constantemente en movimiento y cambio. Según Giordano, hoy los cambios están en los productos personalizados, en el comportamiento de los clientes, en el surgimiento de nuevos canales, en la internet de las cosas (IoT), en el ingreso de los grandes vendors de tecnología, en la commoditización de determinados productos y en la transformación digital. “Estos cambios derivan en una generación constante de información a volúmenes casi inimaginables, situación que nos llega con el concepto de Big Data. Trabajar con esa cantidad de información es un gran desafío, sobre todo porque las fuentes de las que surge esta información ya no son sólo internas -que podamos controlar y chequear-, sino que son externas, son muchas y son de variada calidad”, dijo para empezar.

Lo interesante de este nuevo escenario es que nos obliga a pensar a nuestros clientes de una manera más amplia, más integral. “Hay que entender mejor sus comportamientos y sus deseos, y usar esa información para generar una visión 360° de ellos”, definió.

En el ejemplo que el especialista dio, un enfoque estándar de un cliente nos muestra que Juan Pérez es cliente de la empresa desde hace diez años, que tiene 40 años y vive en Buenos Aires, que tiene tres pólizas vigentes de tres productos diferentes. También podríamos saber que su historial de pagos es correcto, que tiene un auto de tal marca, modelo y año, y que realiza sus transacciones por determinado canal. En cambio, con el enfoque 360° el objetivo es lograr algo más completo: Juan Pérez y J.C. Pérez en realidad son la misma persona (esto está relacionado con los múltiples perfiles digitales que hoy tenemos las personas). Que está casado con María González y que tiene tres hijos. Que ya no vive en Buenos Aires, sino en Rosario (se mudó pero no cambió la dirección de la base de datos). Que es dueño de una pequeña y mediana empresa. Podríamos saber que entes tenía cinco pólizas, pero como no renovó dos, ahora tiene sólo tres. Que hizo comentarios negativos en un foro sobre uno de nuestros productos, que compartió en Facebook para todos sus contactos que nuestra empresa no le da respuestas a sus problemas, y que twitteó consultas sobre los servicios de un competidor. También podríamos saber que en el último mes llamó ocho veces al call center de nuestra compañía.

“Contando con la información del primer enfoque, podríamos decir que Juan Pérez es un cliente bueno o muy bueno. Con el enfoque 360°, en cambio, sabemos que Juan Pérez en cualquier momento deja de ser nuestro cliente. Está claro que es complicado obtener toda la información externa, pero algo se puede conseguir. De todas maneras, el objetivo es compilar de mejor manera la información de la que ya disponemos pero que no estamos utilizando. Y es la tecnología, especialmente Business Analytics, el medio para lograr todo esto”, expuso el Gerente de Servicios de Consultoría de SBI Technology. Según él, se trata de la evolución del viejo concepto de Inteligencia de Negocio (que tenía foco en entender el pasado y también un poco el presente) ya que esta novedad tiene foco en el futuro, en intentar predecir qué puede llegar a pasar con, por ejemplo, un cliente.

Y aquí es donde entramos en el mundo de la segmentación. “¿Cómo hacemos Analytics hoy? Nosotros tenemos modelos pre-diseñados (desarrollados en base a nuestra experiencia, lo que nos permite empezar desde algunos escalones más arriba y no necesariamente desde cero, lo que ahorra tiempo y, por ende, costos) a los que luego sumamos los ajustes de la definición del modelo de negocio de la empresa cliente. Luego se debe trabajar con el área de Sistemas de dicha empresa para ver dónde están disponibles los datos. Con esta metodología se encaramos los proyectos”, explicó y dijo que, a partir de ahí, el proyecto evoluciona de manera vertical y horizontal al mismo tiempo. “Bajando verticalmente por la matriz, recomendamos arrancar por un módulo de emisión para luego seguir por uno de siniestros, otro de resultados y después sumar módulos más pequeños para complementar, como cobranza y gastos. Yendo de manera horizontal, una vez que tenemos nuestro data warehouse con toda la información, podremos empezar a hacer reporting operativo, cubos de información para el análisis de los mandos medios, tableros para el análisis gerencial y, balanced scorecard y análisis predictivo. Esta matriz de evolución es la que nosotros recomendamos”, postuló.

Respecto al análisis predictivo, advirtió que nadie tiene la bola de cristal pero que sí se puede definir cuán probable es que algo suceda. “Para esto existen herramientas que utilizan algoritmos de data minning para encontrar patrones, correlaciones y tendencias en la información que no se pueden percibir a simple vista. Corriendo un algoritmo de data minning en un universo de datos vamos a encontrar relaciones entre los objetos que componen la información que son prácticamente imposibles de encontrar de otra manera”, definió.

¿Y cómo se aplica el análisis predictivo por data minning para hacer segmentación? La segmentación clásica nos permite separar a nuestros clientes por determinadas características, por ejemplo en grupos por edad, por ingresos o por lo que se me ocurra, pero no identifica qué clientes dentro de cada grupo segmentado son buenos o malos clientes. “Por lo que se ve, esta segmentación es obsoleta y no nos sirve para tomar decisiones a futuro. En cambio, un algoritmo de data minning nos permitiría agrupar a nuestros clientes de otra manera, armando una pirámide de probabilidad: identificar segmentos de clientes que tienen una alta probabilidad de comportarse de determinada manera. Mientras más información incorporemos a nuestro modelo de análisis predictivo, más inteligente será el modelo. ¿Qué información sirve? Toda. La interacción del cliente con nuestra compañía, sus datos actitudinales, sus datos descriptivos y su comportamiento, todo esto es información válida”, confirmó Giordano.

Hay cuatro aplicaciones de este trabajo sobre el mercado asegurador: gestión de siniestros, prevención de juicios, up y cross selling y fuga de clientes. “En materia de gestión de siniestros, podemos hacer predicciones sobre cuán probable es que un siniestro se transforme en fraude. Esto nos permite enfocar nuestras investigaciones con más precisión, con el ahorro operativo que eso significa. Además, por un lado, aumentaremos la tasa de detección de fraude, lo que también significa un ahorro económico para las aseguradoras, y por otro lado agilizaremos la gestión de siniestros que no tienen indicios de ser fraudulentos, situación que reporta beneficios directos para los asegurados e indirectos para la compañía”, detalló.

En materia de prevención de juicios, la lógica es la misma. Identificar los casos que más probablemente se pueden convertir en juicios, permite hace foco en ellos para trabajarlos de manera específica en un intento de desactivar dicha probabilidad. “Esto nos pondrá en condiciones de actuar proactivamente para evitar juicios y nos ayudará a bajar el costo final de siniestro (si conseguimos arreglos extrajudiciales)”, señaló como ventajas.

Las tareas de up y cross selling y sobre fuga de clientes involucran a las áreas Marketing y Comercial. La idea es ofrecerles a los clientes otros productos que se tengan disponibles pero que ellos no hayan contratado todavía. “Nosotros podemos darles a las aseguradoras información sobre qué probabilidades hay de que un cliente adquiera un nuevo producto. Así, podrán optimizar sus campañas de marketing para no llamar a mil clientes sino sólo a los cien que más probablemente vayan a comprar los productos que tienen para ofrecer”, detalló.

Esta misma lógica aplica para evitar fuga de clientes. Si se detectan los que más probablemente estén por irse de la compañía, se puede trabajar sobre ellos para intentar que se queden. Giordano recordó, en ese sentido, que siempre “es más barato retener a un cliente que salir a buscar uno nuevo”.

Los resultados esperando de la aplicación de data minning en up y cross selling son una reducción de costos de las campañas de marketing de entre el 20 y el 40% y un incremento del éxito de dichas campañas del 50 al 100%. La retención en materia de fuga de clientes puede ser del 15 al 30%. En cuento a la gestión de siniestros, puede lograrse una reducción de costos del 20 al 30% y una detección de fraude de entre el 80 y el 100%. Además, se puede reducir la morosidad en 10 a 20% a través de campañas de telemarketing focalizadas.

Para finalizar, mostró imágenes de la plataforma de análisis predictivo para la detección de fraude en siniestros de Automotores. “A medida que el operador del call center va cargando en el programa los datos que aporta el asegurado que llamara para hacer su denuncia, se va generando un score de riesgo de fraude. Si la aseguradora ya tiene reglas a seguir para la detección del fraude, se pueden sumar esas reglas al modelo y hacer una doble clasificación del siniestro. Se puede tomar una decisión sobre la combinación de resultados de ambos sistemas”, cerró.

A su turno, Diego Urfeig, Director Ejecutivo de la Cámara Argentina de Comercio Electrónico (CACE), tomó la palabra para hablar sobre “Oportunidades y desafíos del eCommerce en Argentina”.

Según un estudio sobre comercio electrónico en nuestro país realizado por esta cámara, la facturación total del comercio electrónico B2C local en 2015 fue de 68.486 millones de pesos, lo que representa el 1% del comercio total de la Argentina. “Parece poco, pero viene creciendo. Ese 1% de 2015, era 0,6% en 2014 y 0,4% en 2013. La tasa de crecimiento nominal anual del comercio electrónico en la Argentina es del 70%. El crecimiento estimado para 2016 es del 64%, lo que viene sustentado en gran medida por el acceso a internet que en el último año creció de un 75% a un 80% de penetración, empujado sobre todo por la proliferación de dispositivos móviles. La conexión en el hogar es del 55% y eso se mantiene bastante estable”, remarcó Urfeig para empezar.

Según el mismo estudio, el smartphone es el dispositivo de mayor penetración en el mercado local en materia de conexión a internet. Ya hay más dispositivos inteligentes de bolsillo conectados a internet que computadoras de escritorio conectados a internet. “Esto implica la necesidad de un replanteo estratégico para las empresas”, advirtió el especialista.

Como se dijo, el 80% de la población es usuaria de internet. “El 51% de esos usuarios ya realizaron compras online al menos una vez. Son 17,7 millones de personas. Es un número de penetración altísimo en el marco de Latinoamérica”, comparó.

Respecto de la demanda, ¿cómo se conecta y consume a lo largo del día la población internauta general? El teléfono celular está a la cabeza del ranking, salvo en dos momentos: el almuerzo y la cena (ahí gana la TV). “Los compradores online suelen acceder a internet varias veces al día y la mitad (el 52% de los 17,7 millones de personas) son compradores habituales por este medio, es decir que compran online por lo menos una vez por mes”, completó Urfeig y disparó que, “habiendo esta demanda, queda claro que las restricciones al crecimiento del comercio electrónico están más del lado de la oferta que del lado de la demanda”.

El 64% de las de las visitas se realizan desde las computadoras de escritorio mientras que el otro 36% desde el mobile. En el último evento Cyber Monday, organizado por CACE en noviembre pasado, de los 3 millones de usuarios únicos que entraron al sitio a ver, más de la mitad lo hizo desde dispositivos móviles. “Sin embargo, cuando se trata de comprar, la relación baja al 26% (sólo el 26% compró desde el celular). ¿Por qué pasa esto? Nuestro diagnóstico apunta a la oferta. ¿Qué están haciendo las empresas para adaptarse a la realidad del dispositivo móvil? La realidad es que están lejos de desarrollar una estrategia mobile first”, remarcó.

Siguiendo el estudio de CACE, antes de la compra online la gente usa como principal fuente de referencia el boca en boca, luego la búsqueda web y en tercer lugar la experiencia previa. Algo para destacar es que la publicidad aparece recién en el quinto lugar.

Luego, 9 de cada 10 compradores online buscan y comparan antes de comprar. “Si no tengo online mis productos y sus precios, probablemente no voy a estar en la mente del consumidor cuando vaya a tomar una decisión. Ya no se trata de si quiero vender; se trata de si quiero estar en la mente del consumidor”, enfatizó el Director Ejecutivo de la cámara. Finalmente, 4 de cada 10 personas usan el celular para chequear precios online para hacer sus compras offline.

Respecto al cierre de la compra, 9 de cada 10 compradores pagaron con tarjeta de crédito y para 8 de cada 10 la posibilidad de financiación es un factor que influye en la compra. Hay, a este respecto, un 97% de satisfacción con las compras realizadas online.

“Hay una percepción generalizada sobre que en el mundo digital lo que la gente busca es precio. Sin embargo, año tras año nuestro estudio nos dice que en realidad lo que se busca es comodidad. El 89% señala como primer factor de decisión para comprar o contratar en un sitio a la comodidad. Este es un dato para las empresas: no se debe competir en precio; se debe competir en ser cómodo para el cliente. Formas de pago, entrega/envíos, respuestas rápidas ante dudas concretas. Esto último es clave y fundamental en el mundo digital”, remarcó.

¿Cuáles son barreras al e-commerce entre quienes nunca compraron? El estudio de CACE indica que solamente el 4% siente inseguridad de proporcionar datos personales en la web y que este inhibidor a la compra disminuyó del 15% en 2014 al 4% en 2015.

Del lado de la demanda, el 77% de las empresas ya implementó algún tipo de solución m-commerce y esto tiene que ver con que el 95% de ellas dice tener un sitio web responsive (mobile friendly). “Esto no significa de ninguna manera que tengan una estrategia mobile, sino tienen una plataforma de deskstop que, cuando se ve en mobile no se rompe toda. Pero aún con todo el esfuerzo mobile que hay hecho, y siendo que los dispositivos móviles tienen casi el 40% del tráfico, todavía apenas el 10% de las ventas se hacen a través de este tipo de dispositivos, lo que habla del gap entre la oferta y la demanda. Si el 40% de la gente entra desde su celular, ¿por qué la mayoría cierra compras desde la computadora? Porque la oferta no tiene ni la estrategia ni el desarrollo para mobile”, sentenció y postuló que el mayor desafío es cerrar este gap de uso de smartphones y traccionar ventas desde este dispositivo. “Las empresas que logren dar el paso en este sentido hoy, serán las que se diferencien mañana”, finalizó.

A sala llena e interactuando con el auditorio, Mar Fernández, BizDev Manager en Mercado Pago Argentina, cerró la jornada con una disertación titulada “Prevención de fraude, performance y conversión: claves en procesamiento de pagos online”.

Para empezar, señaló que los cambios en los hábitos de consumo requieren de ajustes por parte de las compañías si lo que buscan el liderar el mercado digital que se viene. “El primer desafío que esto representa es pensar en la omnicanalidad. El cliente está en todos lados y tenemos que atenderlo bien y en forma consistente en todos los canales. Otro desafío es que este nuevo escenario nos demanda ajustar nuestros procesos administrativos. Respecto de la industria de seguros, esto apunta sobre todo a la gestión de cobros. Otro desafío es entender y gestionar el riesgo de la interacción online. El cuarto desafío apunta a resolver cómo se integrarán los productores y brokers en este rediseño de canales de interacción y venta con los clientes. En la economía digital, ellos van a seguir siendo actores muy relevantes”, definió.

Según Fernández, entonces, lo primero y fundamental es cuidar la experiencia del consumidor. “Si una aseguradora me dice ‘lo de las redes sociales no es lo nuestro’, yo le diría ‘puede no ser lo de ustedes, pero definitivamente es lo de sus clientes’. Si las compañías no habilitan este canal y no lo gestionan, perderán la oportunidad de satisfacer y/o recuperar clientes. El que elige dónde quiere que lo atendamos es el cliente. Tenemos que entender dónde están ellos y habilitar los canales que requieren”, expuso.

Tal vez lo más complejo en este punto es lograr ser consistentes en todos estos canales. Hoy por hoy es muy disímil la experiencia que se vive en cada uno. “Si queremos tener una marca digital que lidere este mercado, tenemos que hacer que la experiencia sea buena y consistente en todos los canales. Para eso hace falta tener una estrategia onmicanal, con una mirada única sobre todos los puntos de contacto que tenemos con los clientes”, remarcó.

Además, dijo que en fundamental ofrecer toda la información que el cliente requiere en el momento que la requiera (“La compañía que lo haga, podrá retenerlo hasta convertir la operación en una venta”, postuló), ofrecer medios de pago para todos los gustos y posibilidades, y poner a disposición un proceso de pago online lo más sencillo posible (“No molestemos al consumidor pidiéndole más datos de los necesarios”, pidió).

Fernández siguió con el segundo desafío: gestión y conciliación de cobros. “Hay una gran oportunidad de mejora para seguros en este sentido. Hoy, entre que un cliente da los datos de su tarjeta de crédito y la acreditación de ese pago, todo el proceso es muy manual y, además, deja al cliente sin información sobre el estado de situación de su pago durante mucho tiempo, lo que genera dudas sobre la cobertura. ¿Estoy cubierto o no? Si las aseguradoras ofrecieran la posibilidad de pagar 100% online, le da la certeza al cliente (y también al intermediario) sobre si su pago se procesó con éxito o no, todo en un entorno seguro”, diferenció y explicó que el sistema de Mercado Pago les avisa en simultáneo al asegurado, al intermediario y a la aseguradora cuando, por ejemplo, no se pudo procesar un pago por débito automático. Además, explicó que existe lo que se conoce como slip de pagos, una solución que, en el momento en que entra un pago, lo fragmenta en las partes que sea necesario derivando cada porción automáticamente a quien corresponda. “Esto disminuye los tiempos en, por ejemplo, el pago de comisiones al canal intermediario”, subrayó.

Retomando lo que la experta señaló como tercer desafío (entender y gestionar el riesgo de la interacción online), dijo que lo más sensible es la seguridad de los datos de las tarjetas de crédito. “Todos los asegurados están dándoles sus datos de tarjeta a las compañías y tal vez éstas no les estén dando el tratamiento más seguro. Es habitual que los datos estén viajando en correos electrónicos sin cifrar, sin encriptar, sin formularios seguros. Es evidente el riesgo al que esto expone a las aseguradoras y a toda la cadena de valor del mercado. Es urgente hacer foco en esto”, urgió. También habló de la posibilidad de hacer scoring online para minimizar el riesgo de incobrabilidad o fraude. “En Mercado Pago, tenemos altísimas chances de saber quién es el que nos está comprando. Si no lo conocemos al comprador, entonces seguro conoces a su entorno. Nuestras redes pueden predecir si un pago es bueno o no con un altísimo grado de certeza. Este servicio ofrece una gran oportunidad de mejora al mercado de seguros”, expuso.

El último punto que planteó en su presentación fue cómo integrar al productor y al broker en la economía digital. En principio, dijo que algunos productos tienen las condiciones para ser vendibles 100% self services en una página web mientras que otros, más complejos y específicos, requieren de la interacción humana en materia de asesoramiento. “Si ayudamos al broker y al productor simplificando los procesos administrativos, de gestión y seguimiento de cobros, verán esta herramienta como una ventaja. Además, estaremos reduciéndoles el riesgo al que están expuestos por la manipulación de datos sensibles, lo que les va a resultar muy interesante. Si, además, les transferimos los beneficios financieros de esta solución, pagándoles sus comisiones mucho más rápido, será todavía más atractiva para ellos”, repasó.

Finalmente, sostuvo que la solución de Mercado Pago es muy sencilla de utilizar y fácil de integrar a los canales de comercialización con los que las compañías de seguro ya trabajan. “Es una única solución que resuelve todas las cuestiones de las que hablamos hoy”, finalizó.