Big Data: ¿Cuáles son algunas startups interesantes de big data y análisis?

Última actualización de diciembre de 2015:

Varias personas han producido datos y paisajes de aprendizaje automático.

De Shivon Zilis – Machine Intelligence:


De Matt Turck:

“Analytics” y “big data” incluyen una amplia gama de startups. Muchas startups usan big data debajo de sus aplicaciones, por supuesto, pero no están haciendo nada innovador en el frente de big data. Es útil restringir esta lista a las empresas que trabajan con una nueva tecnología, así como a proporcionar una nueva forma de servicio.

Las siguientes son algunas categorías sueltas y superpuestas …

Para inteligencia empresarial, generalmente más centrado en la accesibilidad a la nube y la facilidad de uso que en la escala de datos:

  • Domo
  • Pentaho
  • Kognitio
  • QlikTech: ya no es una startup, sino una empresa emergente en este espacio
  • SiSense – gracias a Bruno Aziza a continuación

Para el análisis en la base de datos (big data, no tradicionalmente en la nube, a menudo utilizando innovaciones de base de datos en columnas, y últimamente, Hadoop):

  • Datos de aster
  • Calpont
  • ParAccel – ahora debajo de RedShift de AWS
  • Ciruela verde
  • Netezza
  • Vertica

Tenga en cuenta que esta ola de startups se han adquirido (todas menos una) en los últimos años … Todavía considero estas startups de etapa tardía a pesar de que son casos límite.

En lugar de incluir una lista de bases de datos mucho, mucho más larga, solo lo referiré aquí:


Para análisis avanzados (minería de datos, aprendizaje automático, modelado sofisticado, simulación):

  • Analítica continua
  • Databricks
  • KNIME
  • Paradigma4
  • PiCloud
  • PLOM.IO – comercializado como Epy.io – hermoso lanzamiento, buena causa!
  • Precog – recientemente adquirido por RichRelevance
  • Revolution Analytics
  • Cielo arbol
  • Ufora
  • Yhat

Desde mi perspectiva en Ufora, el interés en las herramientas diseñadas para profesionales de análisis avanzado (codificadores, quants, investigadores, analistas, científicos de datos) se está calentando.

El análisis de regresión / clasificación / gráfico generalizado para aceptar datos únicos de una empresa, a veces con control guiado por GUI y menos codificación:

  • Datos alpinos
  • Alteryx
  • Ayasdi
  • BigML
  • Contexto relevante
  • Análisis de tormenta de lava
  • Neo Technology
  • tresata *: análisis predictivo automatizado

Para combinaciones de SQL / NoSQL / Hadoop (big data verdadero, procesamiento de datos a gran escala, capacidades analíticas avanzadas a menudo limitadas) en la nube:

  • Actian
  • Datameer
  • Hadapt
  • Inktank / Ceph
  • Platfora
  • Splice Machine * – “SQL en tiempo real en Hadoop”
  • Zettaset

Herramientas NoSQL / Hadoop centradas en el desarrollador para gestionar big data:

  • Cloudera
  • Datastax
  • Hortonworks
  • Infochimps
  • Karmasphere
  • MapR
  • Datos de mortero
  • Qubole * – “UI intuitiva para colmena, cerdo y MapReduce”
  • Rainstor
  • Sqrrl * – usando Apache Accumulo

Para búsqueda, visualización de datos, minería de datos básica y herramientas predictivas; a menudo usando otras soluciones NoSQL:

  • Sistemas de centrifugado
  • Razonamiento digital
  • EdgeSpring
  • LucidWorks
  • Palantir – crecido fuera de la fase de “inicio”
  • Tableau: también creció fuera de la fase de “inicio”
  • Trifacta * – fase de transformación de datos de ETL

Para el procesamiento de eventos complejos:

  • StreamBase

Para paneles en tiempo real:

  • Chartbeat
  • Metamercados
  • Ingresos visuales
  • … mucho más en esta categoría

Infraestructura para web y móvil en tiempo real:

  • Joyent – Equipo impresionante. Ingeniería inteligente Soy un fan.

Para hojas de cálculo de la nueva era:

  • Permanente

… + muchos más. Esta categoría es un cementerio centrado en Excel y Google Docs.

Reventa de datos:

  • DataSift
  • Exversion
  • Factual
  • Quandl
  • Topsy

GPU:

  • Tecnologías SQREAM

Verticales específicos

Ad-Tech: plataformas del lado de la demanda

  • Adchemy
  • AppNexus
  • PANTALLA DE MARCA
  • DatXu
  • Invitar a los medios
  • Lucid Media
  • MediaMath
  • Triggit
  • Giro
  • X + 1

Ad-Tech: herramientas de optimización de marketing en línea

  • Coremetrics
  • Omniture
  • RichRelevance
  • Unica

Bio:

  • Accelrys
  • Affymetric
  • Ariadne Genomics
  • BioXpr
  • DNAnexus
  • Eagle Genomics
  • Bioinformática de Ginebra
  • IO Informática
  • Genética Espiral
  • Tecnologías de la vida
  • Tripos Discovery Informática

Ingeniería / monitoreo de desempeño:

  • Concurix
  • … mucho mas.

Finanzas (con énfasis en FinTech):

También:

  • 1010data
  • Arialíticos
  • QuantConnect
  • Quantopian

Márketing:

  • PivotLink
  • Kontagent
  • Clario

Otras listas de análisis y nuevas empresas de datos:

  • 42 Startups de Big Data – Vote por los 10 mejores
  • Colección de startups de datos en Pinterest
  • Financiación de inicio de Big Data por proveedor

Mucho para agregar, incluidos algunos importantes. Si tengo una oportunidad, continuaré ampliando esta lista.

Algunos blogs útiles y estudios de mercado, aunque las startups son solo una parte de su enfoque:

El panorama de Big Data
Kurt Monash: http://www.dbms2.com/
Merv Adrian: http://blogs.gartner.com/merv-ad…
James Kobelius: http://blogs.forrester.com/blog/143
IDC: http://www.idc.com/
Intersect360: http://www.intersect360.com/

También vale la pena vigilar las firmas establecidas, por supuesto … Oracle, SAP (HANA), Microsoft, IBM (SPSS), SAS, MathWorks, MicroStrategy, MarkLogic, TIBCO, etc., y empresas consultoras como Opera Solutions, Mu Sigma Accenture McKinsey está desarrollando una práctica analítica avanzada.

Hay muchas grandes startups de Data Analytics en India y el número aumenta cada año. Conozco algunos de los nombres que enumeraré para usted.

Heckyl

Heckyl básicamente trabaja en la industria comercial. Analiza todas las fluctuaciones e incidentes en el mercado global generando ideas que pueden resultar útiles en sus decisiones comerciales. Actualmente presta servicios a clientes como Angel Broking, Motilal Oswal y Sharekhan, Heckyl es una de las startups más prometedoras desde 2010.

Flutura

Flutura ha sido reconocida como una de las 20 compañías de Big Data más prometedoras a nivel mundial por la revista Tech y CIO Review, con sede en California. También es reconocido por TechSparks2013 como una de las 3 principales startups de la India.

IA fluida

Fluid AI está trabajando actualmente en un sistema de IA controlado por gestos. Se está extendiendo en el sector de Marketing y Finanzas en asistencia al cliente. Fluid AI ya está trabajando con Vodafone, Deloitte, Barclays, etc.

Redes perimetrales

Edge Networks trabaja principalmente para cambiar las operaciones de la industria de recursos humanos. HIREalchemy (Producto de EdgeNetworks) lo ayuda a encontrar la combinación perfecta para sus requisitos de trabajo.

Aparte de estos, algunos otros que encuentro realmente interesantes y que están haciendo un trabajo encomiable son

  • MachinePulse
  • Analítica infinita
  • Aureus Analytics
  • MineWhat Inc
  • EigenRisk
  • Peel-Works
  • AnalyticsOne
  • VPhrase
  • ShopR360

Descargo de responsabilidad: soy cofundador de @GreyAtom y ayudo a talentos de ingeniería a encontrar carreras sostenibles en tecnologías emergentes.

El programa insignia altamente selectivo de GreyAtom tiene como objetivo orientar a los profesionales que trabajan y los más novedosos en el inicio de su carrera de ciencia de datos. Los estudiantes crearon proyectos a partir de conjuntos de datos REALES y declaraciones de problemas proporcionadas por nuestra industria y socios de contratación. El programa se basa en el aula y está fuertemente orientado a la práctica. GreyAtom es un ecosistema donde los estudiantes pueden aprovechar lo mejor de la academia, profesionales de la industria y personas influyentes.

Algunos enlaces rápidos

Somos Ideata Analyticshttps://ideata-analytics.com/ – una startup de productos de análisis de big data.

Hemos construido una plataforma de inteligencia de grandes datos sobre Apache Spark para ayudar a las empresas a reunir una variedad de conjuntos de datos para realizar análisis en profundidad, sin preocuparse por la complejidad del sistema subyacente.

Algunas de las características clave de la aplicación incluyen:

Análisis y visualización: interfaz de arrastrar y soltar fácil de usar para analizar grandes datos en tiempo real y generar informes y paneles.

Análisis de plataforma de datos cruzados: conéctese sin problemas a múltiples fuentes de datos para importar y exportar datos. Admite fuentes de datos grandes (Hadoop, Cassandra, MongoDB), bases de datos relacionales (Oracle, Postgres SQL, MySQL, etc.) archivos planos (hojas de Excel, CSV, JSON, etc.) y API web (Salesforce, Twitter, etc.)

Limpieza e integración de datos: Interfaz visual sugerente para ayudar a los usuarios a realizar la limpieza de datos y transformaciones sin ETL o codificación compleja.

Cree modelos de aprendizaje automático: cree modelos avanzados de aprendizaje automático en sus big data para realizar análisis avanzados.


Descargo de responsabilidad: soy fundador de Ideata Analytics

Estuve trabajando como analista de datos en MuSigma durante aproximadamente un año antes de comenzar a buscar algo más significativo que hacer. Encontré SocialCops a través de la lista Forbes 30 under 30 y me intrigó el trabajo que han estado haciendo silenciosamente en el campo de los datos. Recientemente me uní a su equipo de Data Science.

Copia de seguridad: SocialCops (consulte SocialCops | Better Data, Smarter Decisions) es una startup de datos impulsada por una misión de dos años que utiliza datos para resolver problemas de salud, educación, infraestructura, medios de vida … básicamente, los mayores problemas que enfrenta la humanidad 😉

En las cuatro cortas semanas que me uní a SocialCops, estoy asombrado de la increíble cultura e infraestructura centradas en los datos que han construido. Aquí están las cosas que realmente se destacaron para mí:

1. Whoa! Esa es una gran cantidad de datos.

¡Lo primero que me impresionó es la gran cantidad de datos que procesamos todos los días! Estamos construyendo una plataforma de datos abierta, lo que significa que eliminamos y procesamos más de 600 GB de datos mensualmente.

Como analista de datos, trabajo en conjuntos de datos súper grandes (¡y aprendo a aprovechar Excel, Stata, SPSS, R, Hadoop, Python, etc.) para construir el repositorio más grande de datos abiertos!

2. Análisis que nunca has visto antes

Todos los días, escucho sobre análisis que nunca podría haber visto antes. Por ejemplo, recientemente visualizamos 264 aldeas, ¡a nivel de hogar!


Esta es la vista aérea de un pueblo en Orissa. La imagen base es cómo Google Earth ve la aldea, que superponemos con una visualización a nivel de hogar. Los diferentes colores nos permiten mostrar hogares sombreados por nivel de ingresos, atención médica o educación. Estos muestran patrones interesantes como cómo se agrupan los ingresos y pueden relacionarse con factores sociales, nos permite vincular el brote de diarrea con la fuente de agua potable, o incluso nos permiten encontrar patrones para el brote de enfermedades.

Como analista de datos, enfrentará nuevos desafíos en SocialCops todos los días. En mi primera semana aquí, como mi pirateo (ver Análisis de Android para enriquecer la recopilación de datos en el campo: Mi semana de pirateo en SocialCops – Blog SocialCops), trabajé en temas que van desde la seguridad contra incendios en India hasta las elecciones, todo para potenciar un horario de máxima audiencia. programa de televisión que hará que los datos sean convencionales. Sigue viendo SocialCops para más noticias sobre esto 😉

3. Un equipo de geeks de datos.

Lo único que se destacó para mí es la diversidad del equipo. Tenemos ingenieros, científicos de datos, analistas, especialistas en marketing, analizadores, empresarios, todo bajo el mismo techo. Sin embargo, todos estamos unidos por un rasgo común: ¡todos somos un Data Geek!

Nuestros ingenieros crean sistemas que pueden obtener, analizar, discutir, administrar y visualizar los datos que tenemos; nuestro equipo de datos trabaja con grandes cantidades de datos; nuestro equipo de crecimiento sigue creando y tuiteando visualizaciones de datos; y nuestro equipo de BD conoce los entresijos de los datos abiertos y cómo las organizaciones pueden recibir datos.

Y ni siquiera comenzaré a hablar sobre la cultura del trabajo. (Consulte http://www.slideshare.net/socialcops/socialcops-culture-and-values )

4. ¡Conducir decisiones que importan!
Lo más importante, impulsamos las decisiones que importan. Demostración de todos los viernes (ver TGIF: lo que hace SocialCops los viernes – Blog SocialCops), me doy cuenta de cómo mi trabajo diario ayudó a los agricultores a obtener subsidios, a los recaudadores del distrito a asignar presupuestos o a regresar a un niño a la escuela al conectarlo con becas y subsidios.

Todo mientras estamos sentados en nuestros escritorios y hacemos lo que hacemos mejor: analizar conjuntos de datos

Hay muchas grandes startups de Data Analytics en India y el número aumenta cada año. Conozco algunos de los nombres que enumeraré para usted.

  1. MachinePulse
  2. Analítica infinita
  3. Aureus Analytics
  4. MineWhat Inc
  5. EigenRisk
  6. Peel-Works
  7. AnalyticsOne
  8. Convergentes

En GreyAtom ponemos énfasis en el aprendizaje inmersivo que en realidad significaría:

  • Replicando posibles escenarios de trabajo
  • Aprendizaje interactivo
  • Enseñar habilidades o técnicas particulares
  • aprender = hacer trabajo real
  • Aprendizaje práctico
  • Trabajando en equipo, aprendiendo del instructor
  • Menos basado en el aula
  • Más proyecto / estudio de caso basado
  • Manejo de problemas reales, datos reales, escenarios reales, flujo de trabajo real
  • Herramientas que reflejan la industria, herramientas y estructuras alineadas a la industria.
  • Imitando una situación o escenario que enfrentan la industria / empresas
  • O llevar a cabo proyectos basados ​​en escenarios de trabajo reales
  • Juego de roles y realización de una tarea como se hace en el lugar de trabajo.
  • Capacitación para la industria antes de ser contratado.
  • Buscando alternativas para la gestión tradicional de proyectos / escenarios / problemas
  • Fases cortas de trabajo, reevaluación frecuente, adaptación de planes.
  • Scrum sprints: evaluación colaborativa, agradable y rápida, entrega de productos en ciclos cortos, retroalimentación rápida, mejora continua,
  • Scrum sprints: creación de lugares de trabajo alegres y sostenibles
  • Los sprints ágiles mejoran la comunicación, el trabajo en equipo y la velocidad.

Full Stack Data Science Engineer es uno de los trabajos más solicitados en este momento. GreyAtom se enfoca en crear ingenieros de ciencia de datos de Full Stack y le brinda todas las herramientas, técnicas y conceptos básicos necesarios para lograr un impacto. En solo 14 semanas, aplicará la resolución de problemas y el pensamiento creativo a conjuntos de datos del mundo real, ganando experiencia en toda la pila de ciencia de datos.

Tendrá un historial de contribuciones de código abierto y ayudará a la comunidad más amplia de ingeniería de software (a través de Github, StackOverflow, un blog o similar).

Puede consultar los detalles del curso haciendo clic en este enlace Full Stack Data Science Engineering | Greyatom

Los datos realmente impulsan todo lo que hacemos. Si eres un apasionado de la ciencia de datos y quieres redefinir tu carrera, visítanos en el programa in situ de GreyAtom: ciencia de datos, aprendizaje automático, Big Data

Creemos que “Aprender = hacer trabajo real”

Descargo de responsabilidad: soy cofundador de @GreyAtom y ayudar a las personas a encontrar carreras sostenibles en Data Science es mi pasión.

Al igual que el resto del mundo, existe una creciente demanda de soluciones de análisis y ciencia de datos en India. Y por esta razón, varias nuevas empresas en la industria han aparecido a lo largo de los años. Aquí hay algunos que llegarían a mi lista:

DataWeave : DataWeave es una empresa que ofrece soluciones de datos valiosas mediante la recopilación y el análisis de grandes fragmentos de datos no estructurados. Ayudan a las empresas a comprender su competencia, supervisar el rendimiento de su marca, descubrir el alcance de las mejoras y explorar nuevas perspectivas de ingresos.

Fractal Analytics : esta empresa ofrece soluciones para análisis predictivos y visualización de datos. Usando su tecnología, las empresas pueden descubrir ideas procesables para dar paso a decisiones empresariales más inteligentes. Fractal Analytics también ayuda a las empresas a descubrir problemas en sus operaciones y a encontrar soluciones para solucionar esos problemas.

Heckyl Heckyl ha hecho una entrada en el análisis de datos en el sector financiero. Las empresas y los individuos también pueden trabajar con Heckyl para analizar los sentimientos y las tendencias del mercado global a fin de tomar mejores decisiones en el comercio. La compañía puede proporcionar actualizaciones en tiempo real sobre los últimos movimientos gubernamentales y anuncios económicos.

Estas son solo tres de las puntuaciones de las nuevas empresas de big data y análisis que se han establecido en los últimos años. Y con la creciente adopción de la ciencia de datos en varios sectores, deberíamos esperar ver aún más nuevas empresas emergentes cada año en este campo.

Hola. ¡Estamos aquí también “rakam”!

rakam es una poderosa plataforma de análisis personalizada en su nube, se encarga de ETL + almacenamiento de datos + informes para que pueda crear información de sus datos fácilmente. En breve: análisis personalizados en las instalaciones para sus necesidades.

Llena la brecha entre Analytics-as-a-a-service y los paquetes de análisis internos.

Los puntos principales son:
-Total control sobre tus datos
-No más preguntas sin respuesta
-Económico

¿Por qué rakam?
-Las empresas no deben perder ningún punto de datos.
-Las empresas ahora tienen múltiples fuentes de datos, datos de visitantes / usuarios, datos comerciales, servicios de terceros, etc.
-Manejar datos de múltiples fuentes es un desafío.
-Comparación entre Rakam y otras herramientas.

Actualmente procesamos eventos 1B mensualmente, aquí hay algunas ideas y clientes:

Scorp : la red social más genuina del mundo // Utilizan Rakam como ETL + Data warehouse + solución de BI.

Twentify : es una aplicación de crowdsourcing, usan Rakam en su aplicación principal y visualizan los datos a sus clientes usando Rakam. Rakam se parece más a la interfaz de análisis desde su lado.

También es de código abierto y también puede consultar nuestra cuenta de github: rakam-io / rakam

Cuando se trata de aprendizaje automático, big data y ciencia de datos, definitivamente hay algunas nuevas empresas que tienen algo que decir aquí.

El aprendizaje automático es un campo de estudio que brinda a las computadoras la capacidad de aprender sin ser programados. Big data es, literalmente, datos de gran tamaño que deben analizarse computacionalmente para revelar patrones y otras asociaciones. La ciencia de datos es un campo interdisciplinario que se utiliza para extraer conocimiento de los datos, ya sea estructurado o no estructurado.

Cuando observa estas explicaciones, está claro que las tres se pueden combinar. Como mínimo, puede implementar cada uno parcialmente junto con los demás. Y eso es lo que hacemos en Intelligence Node, una startup que cofundé.

Somos una startup relativamente antigua en el campo del análisis de big data en metros de todo el mundo, incluidos Mumbai, Londres, Dubai y Nueva York. Nuestra tecnología hace posible que los minoristas disminuyan el ciclo de comercialización de seis meses a tan solo diez días, con comentarios rápidos y efectivos.

Somos un verdadero producto tecnológico de alta velocidad de big data :

· Procesamos información a través de millones de atributos de mil millones de productos únicos.

· Nuestra pila de tecnología se compone de las herramientas de big data más avanzadas del mercado (incluyendo Mongo DB, Aerospike DB, Elastic search, Spark), sobrealimentadas con tecnología desarrollada internamente

• La base de datos de productos minoristas más grande, limpia, precisa y exhaustiva en más de 1 000 millones de productos únicos que cubren 1100 categorías minoristas en más de 130 000 marcas.

El nodo de inteligencia funciona de manera efectiva para las marcas de moda, ayudándoles a organizar sus inventarios y reconociendo los artículos que no están a la altura, para eliminarlos de los inventarios. Los conocimientos minoristas de nuestro motor de big data son consumidos globalmente por más de 100 minoristas y marcas para guiar sus decisiones de ciclo de vida minorista. Nuestros clientes encuentran la aplicación de estos conocimientos para todo, desde estrategias de comercialización enriquecedoras hasta la optimización de precios en tiempo real.

Es posible que desee ver Joojip.

Joojip es Stream Analytics-as-a-Service. Estamos creando un producto que permite a las empresas transformar datos en bruto y crear sus propios análisis a través de nuestro potente motor de procesamiento de flujo. Con Joojip puedes definir y construir análisis de sensores y análisis de uno a muchos.

Supongamos que es una empresa SaaS y le gustaría ofrecer servicios de valor agregado a sus socios comerciales. Es posible que tenga varias fuentes de datos que necesita reunir para proporcionar análisis. Los paneles de análisis específicos pueden aumentar el compromiso, mejorar las relaciones y generar flujos de ingresos de valor agregado.

Así es como puedes usar joojip

  • Recopilación de datos: el producto le permite extraer fuentes de datos dispares en un repositorio. Esto incluye bases de datos, documentos csv, sensores y dispositivos móviles. Debe definir las fuentes de datos una vez. Tiene la flexibilidad de cambiar las fuentes de datos cuando sea necesario.

  • Definir análisis: una vez que tenga todas las fuentes de datos en su lugar, defina y cree sus propios análisis en un entorno limpio donde pueda codificar y personalizar sus análisis.

o use la interfaz visual para consultar sus datos, obtener gráficos hermosos e incrustarlos en su aplicación en la nube existente. Puede explorar sus datos, crear widgets e incrustarlos en su aplicación en la nube existente.

  • Visualización de datos: puede crear análisis personalizados desde cero o incrustarlos en su aplicación en la nube existente. Los paneles de control pueden ser para análisis de sensores en los que obtiene información y métricas en tiempo real o paneles de uno a varios como un servicio de valor agregado para sus clientes.

Visite nuestro sitio web para obtener más análisis como servicio para cosas conectadas: análisis como servicio

Xplenty es un motor ETL en la nube, impulsado por Hadoop fácil para que pueda comenzar con la integración de datos en la nube en minutos, procesando datos estructurados y semiestructurados en un instante.

Premonition tiene la base de datos de litigios más grande del mundo.

Premonition es un sistema de Inteligencia Artificial que extrae Big Data para averiguar qué abogados ganan antes de qué jueces.

Es una ventaja muy, muy injusta en litigios.


Síganos en https://www.linkedin.com/company

para noticias legales internas y visítenos en http://www.Premonition.ai

Hay muchas nuevas empresas de análisis en todas las ciudades y con el mundo descubriendo el beneficio del análisis, la locura entre estudiantes, profesionales y empresas se está calentando con un crecimiento exponencial previsto. Para 2020 habría una gran brecha de oferta y demanda de profesionales de análisis. Las empresas se están preparando al tener equipos de análisis separados para satisfacer la demanda del mercado y están viendo un buen crecimiento de los ingresos Q sobre Q.

La analítica es un área que está creciendo a un ritmo masivo. Para satisfacer la demanda de la comunidad, había lanzado una startup de análisis. Los lectores pueden echar un vistazo a Fusion Analytics World – The Analytics Encyclopedia ( http://fusionanalyticsworld.com ). Fusion Analytics World es la primera plataforma única del mundo para big data, minería de datos, ciencia de datos, análisis de negocios y visualización de datos.

Si tiene alguna pregunta o desea ponerse en contacto con respecto a la escritura para nosotros O la asociación, O la publicidad no dude en ponerse en contacto en [correo electrónico protegido]

  Atentamente,
 Kalyan Banga
 Fundador y Consultor Principal de Análisis
 Hola: + 91-9433948532
 Web: http://fusionanalyticsworld.com
 LinkedIn: http://www.linkedin.com/company/fusion-analytics-world
 Facebook: http://www.facebook.com/AnalyticsFusion
 Twitter: http://twitter.com/analyticsfusion

Big Data puede ser abrumador con algunas nuevas palabras clave y partes que uno necesita para obtenerlo. En cualquier caso, este curso revela claramente a un alumno sobre la ingeniería y los diversos instrumentos que se pueden utilizar en una empresa de big data. Del mismo modo, tiene signos sobre el alcance de los grandes datos en el negocio, las partes distintivas que uno puede realizar en el espacio de los grandes datos y, además, cubre las diferentes divulgaciones comerciales de grandes datos. En general, un curso increíble para que un principiante comience con lo esencial de los grandes datos. Utilizar Case es una recompensa

Desea saber más Simplemente haga clic o contáctenos

OFICINA CORPORATIVA

361 Degree Minds Consulting Pvt Ltd

  • 1er piso, 10-Sathya Gardens Kamarajar Nagar, Saligramam.
  • Chennai – 600093
  • Teléfono: +91 44-39361361
  • Correo electrónico: [correo electrónico protegido]

El big data es una información que contiene un gran volumen de datos que es bastante difícil de analizar y tomar una decisión efectiva más rápido en los negocios. Las organizaciones no pudieron acceder a grandes conjuntos de datos o incluso cargar grandes cantidades de información que podría tomar muchas horas o incluso varios días para predecir los resultados.

Roosboard proporciona una plataforma de análisis basada en búsquedas para inteligencia empresarial que permite a las personas de negocios no técnicas acceder, analizar y evaluar los datos. Este panel está diseñado para ayudar al usuario a traer los resultados deseados en la búsqueda. Haga que el autoservicio analice sus datos grandes en datos en tiempo real con el tablero.

Panel de búsqueda diseñado exclusivamente para el usuario de negocios, especialmente ejecutivos para conocer actualizaciones fáciles de sus negocios. Nuestro panel de análisis de rendimiento inspira y motiva a toda la organización a tomar mejores decisiones más rápido. Ayuda a medir los resultados del negocio rápidamente, reduce fácilmente los retrasos en los informes y también aumenta la rentabilidad del negocio.

Hola Robert, deberías echar un vistazo a SQream Technologies.

SQream proporciona la base de datos de análisis de Big Data número 1 en términos de VELOCIDAD , ESCALA , TAMAÑO y SIMPLICIDAD , convirtiéndola en la base de datos más rentable disponible en el mercado.
La potente plataforma de software SQL de SQream ayuda a los científicos de datos, DBA, investigadores y especialistas en marketing a dominar fácilmente el arte y la ciencia de la minería de datos, y a aumentar rápidamente los ingresos.
Aquí hay un enlace al sitio web: Inicio – sqream technologies

Déjame saber lo que piensas.

Aclamaciones,
Gidon

Según IDC, los servicios de Big Data tomarán la mayor parte de todos los ingresos de big data y análisis para 2019. En ese contexto, nos gustaría presentar a Noah Data Technologies, Inc. como una de las compañías de servicios administrados de Big Data Analytics con mayor crecimiento en Atlanta. . Hemos ayudado a los clientes a monetizar datos y hemos realizado un trabajo increíble en una amplia gama de áreas que no se limitan al análisis predictivo impulsado por IoT, análisis de fraude, análisis de rotación, automóviles conectados, minería de registros, etc.

Noah Data ayuda a los clientes a aumentar la agilidad empresarial y a obtener un tiempo de comprensión más rápido a través de una combinación de habilidades de vanguardia en Big Data, Advanced Analytics y servicios de desarrollo de productos. Noah Data es una preocupación hermana de Indium Software, un veterano de pruebas de IP de 450 miembros que se encuentra en la guía de proveedores de pruebas de Gartner. Noah Data ofrece servicios piloto de desarrollo de Big Data, análisis y desarrollo de productos y tiene experiencia en AWS, Azure, Google App Engine y soluciones de gestión de datos en tiempo real.

Noah Data se centra exclusivamente en ayudar a las empresas de nueva creación, las empresas y los ISV de todo el mundo a aprovechar las tecnologías de Big Data y análisis mediante la consultoría y el suministro de soluciones integrales de desarrollo / implementación y mantenimiento de productos. Los clientes de Noah Data incluyen emocionantes Start-ups y Empresas de las Américas, APAC e India en los dominios IoT, Servicios financieros, Banca, Comercio electrónico / Negocio digital, Minorista y CPG.

Para más información, visite http://www.noahdatatech.com

Aquí está la lista de las compañías de análisis de datos y big data más prometedoras:

1) Cuadro

Originalmente surgido de la Universidad de Stanford como un proyecto de investigación, Tableau comenzó ofreciendo técnicas de visualización para explorar y analizar bases de datos relacionales y cubos de datos y se ha expandido para incluir la investigación de Big Data. Ofrece visualización de datos desde cualquier fuente, desde Hadoop a archivos de Excel, a diferencia de algunos productos de visualización que solo funcionan con ciertas fuentes, y funciona en todo, desde una PC hasta un iPhone.

2) Nueva reliquia

New Relic utiliza un modelo SaaS para monitorear aplicaciones web y móviles en tiempo real que se ejecutan en la nube, en las instalaciones o en una mezcla híbrida. Utiliza más de 50 complementos de socios tecnológicos para conectarse a su panel de monitoreo. Los complementos incluyen servicios PaaS / cloud, almacenamiento en caché, bases de datos, servidores web y colas. Su software Insights para análisis funciona en toda la línea de productos New Relic, y la compañía ofrece un producto llamado Insights Data Explorer que está diseñado para facilitar a todos los miembros de un equipo de software explorar eventos Insights.

3) Quantzig

Quantzig, cree firmemente que las capacidades para aprovechar el máximo conocimiento de la afluencia de información continua que nos rodea es lo que impulsará la preparación competitiva y el éxito de cualquier organización. Nuestro objetivo es reunir a la mejor combinación de analistas y consultores para complementar a nuestros clientes con una necesidad compartida de descubrir y desarrollar esas capacidades, e impulsar la excelencia continua del mercado.

4) Alation

Alation rastrea a una empresa para catalogar cada bit de información que encuentra y luego centraliza el conocimiento de datos de la organización, capturando automáticamente información sobre lo que los datos describen, de dónde provienen los datos, quién los usa y cómo se usan. En otras palabras, convierte todos sus datos en metadatos y permite búsquedas rápidas utilizando palabras en inglés y no cadenas de computadora. Los productos de la compañía proporcionan análisis colaborativos para una visión más rápida, un medio unificado de búsqueda, proporciona una estructura de datos más optimizada de los datos de la compañía y ayuda a mejorar el gobierno de los datos.

5) Teradata

Teradata ha incorporado una cartera de aplicaciones de Big Data en lo que llama su Arquitectura de datos unificada, que incluye Teradata QueryGrid, Teradata Listener, Teradata Unity y Teradata Viewpoint. QueryGrid proporciona un tejido de datos sin interrupciones a través de motores analíticos nuevos y existentes, incluido Hadoop. Listener es el marco principal de ingestión para organizaciones con múltiples flujos de datos, Unity es una cartera de cuatro productos integrados para administrar el flujo de datos en todo el proceso, y Viewpoint es un panel de herramientas personalizado basado en la web para administrar el entorno de Teradata.

6) VMware

VMware ha incorporado Big Data en su producto insignia de virtualización, llamado VMware vSphere Big Data Extensions. BDE es un dispositivo virtual que permite a los administradores implementar y administrar los clústeres de Hadoop en vSphere. Es compatible con una serie de distribuciones de Hadoop, incluidas Apache, Cloudera, Hortonworks, MapR y Pivotal.

7) Splunk

Splunk Enterprise comenzó como una herramienta de análisis de registro, pero desde entonces ha expandido su enfoque y ahora se enfoca en el análisis de datos de la máquina para que cualquier persona pueda utilizar la información. Puede monitorear transacciones de extremo a extremo en línea, estudiar el comportamiento de los clientes y el uso de los servicios en tiempo real, monitorear las amenazas de seguridad e identificar tendencias puntuales y análisis de sentimientos en las plataformas sociales.

8) IBM

Además de sus sistemas mainframe y Power, IBM ofrece servicios en la nube para una escala informática masiva a través de su subsidiaria Softlayer. En el lado del software, su software de base de datos DB2, Informix e InfoSphere admite análisis de Big Data y el software de análisis Cognos y SPSS se especializa en BI y conocimiento de datos. IBM también ofrece InfoSphere, la plataforma básica para construir la integración de datos y el almacenamiento de datos utilizados en un escenario de BD.

9) Striim

Anteriormente conocido como WebAction, Striim es una plataforma de software de análisis de transmisión de datos en tiempo real que lee datos de múltiples fuentes como bases de datos, archivos de registro, aplicaciones y sensores IoT y permite a los clientes reaccionar al instante. Las empresas pueden filtrar, transformar, agregar y enriquecer los datos a medida que ingresan, organizándolos en la memoria antes de que lleguen al disco.

10) SAP

La principal herramienta de Big Data de SAP es su base de datos relacional en memoria HANA, que según la compañía puede ejecutar análisis en 80 terabytes de datos e integrarse con Hadoop. Aunque HANA es una base de datos de filas y columnas, puede realizar análisis avanzados, como análisis predictivo, procesamiento de datos espaciales, análisis de texto, búsqueda de texto, análisis de transmisión y procesamiento de datos gráficos y tiene capacidades ETL (extracción, transformación y carga). .

Mientras que algunas compañías se especializan en una o pocas fuentes de datos, SAP maneja datos de una amplia gama de fuentes, incluidos datos de sensores, registros de máquinas y otros equipos; datos generados por humanos: redes sociales, puntos de venta (POS), ERP, documentos de correos electrónicos y otras cosas que componen los datos empresariales.

El análisis de Big Data es el proceso de examinar grandes conjuntos de datos que contienen una variedad de tipos de datos, es decir, Big Data, para descubrir patrones ocultos, correlaciones desconocidas, tendencias del mercado, preferencias del cliente y otra información comercial útil. Los resultados analíticos pueden conducir a nuevas oportunidades de ingresos de marketing más eficaces, un mejor servicio al cliente, una mejor eficiencia operativa, ventajas competitivas sobre las organizaciones rivales y otros beneficios comerciales.

Visite este enlace: Big Data, ciencia de datos: curso combinado Clases de capacitación en línea | Big Data, Data Science – Cursos de cursos combinados en línea El objetivo principal del análisis de big data es ayudar a las empresas a tomar decisiones comerciales más informadas al permitir que DATA Scientist, modeladores predictivos y otros profesionales de análisis analicen grandes volúmenes de datos de transacciones, así como otras formas de datos que pueden ser aprovechados por los programas convencionales de inteligencia de negocios (BI). Eso podría incluir registros del servidor web y datos de Internet Click Stream, contenido de redes sociales e informes de actividad de redes sociales, texto de correos electrónicos de clientes y respuestas de encuestas, registros detallados de llamadas de teléfonos móviles y datos de máquinas capturados por sensores conectados a INTERNET. Algunas personas se asocian exclusivamente Big Data con datos semiestructurados y no estructurados de ese tipo, pero las firmas consultoras como Gartner Inc. y Forrester Research Inc. también consideran que las transacciones y otros datos estructurados son componentes válidos de las aplicaciones de análisis de Big Data.

Los grandes datos se pueden analizar con las herramientas de software comúnmente utilizadas como parte de las disciplinas de Advance Analytics, como la minería de datos de análisis preventivo, el análisis de texto y el método estático. El software de BI convencional y las herramientas de visualización también pueden desempeñar un papel en el proceso de análisis. Pero los datos semiestructurados y no estructurados pueden no encajar bien en el Data Warehouse tradicional basado en la base de datos relacional. Además, es posible que los almacenes de datos no puedan manejar las demandas de procesamiento que plantean los conjuntos de grandes datos que deben actualizarse con frecuencia o incluso continuamente, por ejemplo, datos en tiempo real sobre el rendimiento de aplicaciones móviles o de oleoductos y gasoductos. Como resultado, muchas organizaciones que buscan recopilar, procesar y analizar grandes datos han recurrido a una nueva clase de tecnologías que incluye Hadoop y herramientas relacionadas como Yarn Spook, Spark y Pig, así como bases de datos No Sql. Esas tecnologías forman el núcleo de un marco de software de código abierto que admite el procesamiento de conjuntos de datos grandes y diversos en sistemas agrupados.

En algunos casos, los sistemas Hadoop Cluster y No SQL se están utilizando como pistas de aterrizaje y áreas de preparación de datos antes de que se carguen en un almacén de datos para su análisis, a menudo en forma resumida que es más propicio para las estructuras relacionales. Sin embargo, cada vez más, los proveedores de big data están impulsando el concepto de una toma de datos de Hadoop que sirve como el depósito central para los flujos entrantes de datos sin procesar de una organización.

En tales arquitecturas, los subconjuntos de datos se pueden filtrar para su análisis en almacenes de datos y bases de datos de análisis, o se pueden analizar directamente en Hadoop utilizando herramientas de consulta por lotes, software de procesamiento de flujo y tecnologías SQL y Hadoop que ejecutan consultas interactivas y ad hoc escritas en SQL Las posibles trampas que pueden hacer tropezar a las organizaciones en iniciativas de análisis de big data incluyen la falta de habilidades analíticas internas y el alto costo de contratar profesionales analíticos experimentados.

La cantidad de información que generalmente está involucrada, y su variedad, también pueden causar dolores de cabeza en la gestión de datos, incluidos la calidad de los datos y los problemas de coherencia. Además, integrar sistemas Hadoop y almacenes de datos puede ser un desafío, aunque varios proveedores ahora ofrecen conectores de software entre Hadoop y bases de datos relacionales, así como otras herramientas de integración de datos con capacidades de big data.

Las empresas están utilizando el poder de los conocimientos proporcionados por Big Data para establecer instantáneamente quién hizo qué, cuándo y dónde. El mayor valor creado por estos conocimientos oportunos y significativos de grandes conjuntos de datos es a menudo la toma de decisiones empresariales efectivas que permiten los conocimientos.

Extrapolar información valiosa de grandes cantidades de datos estructurados y no estructurados de fuentes dispares en diferentes formatos requiere la estructura adecuada y las herramientas adecuadas. Para obtener el máximo impacto comercial, este proceso también requiere una combinación precisa de personas, procesos y herramientas analíticas.

Agregar mi empresa Nube Technologies (Resolución de entidad, vinculación de registros y deduplicación para Big Data) a esta lista. Proporcionamos herramientas para la vinculación y deduplicación de grandes registros de datos mediante el aprendizaje automático.

Otra adición importante a esta lista sería la página Sigmoid en sigmoid.com. Sigmoid se especializa en aprendizaje profundo, modelado matemático y análisis avanzado, y trabaja con algunos de los principales clientes de la industria de la tecnología publicitaria y minorista.
La herramienta Real Time Analytics es totalmente personalizable para consultas Ad-Hoc con una capacidad de desglose a cualquier cantidad de dimensiones sin afectar el tiempo de respuesta (menos de 10 segundos). La herramienta se basa en Apache Spark y se escala fácilmente más allá de 100 TB de datos.