jueves, 6 de junio de 2013

Fedora 19 Beta, el gato está vivo y MariaDB está desplazando a MySQL

Que opina? Fedora 19 Beta, el gato está vivo - 29/05/2013 11:14:06

" Fedora 19 Schrödinger"s Cat, ya tiene versión Beta. La distribución amparada por Red Hat se caracteriza por su espíritu vanguardista, e incorpora casi lo último disponible en el mundo del software libre. Después de las críticas recibidas por parte de Alan Cox a su antecesora, los adeptos al proyecto esperan algo distinto en la próxima entrega de la distribución.
Finalmente Cinnamon no es el entorno de escritorio por defecto, como se dijo. Fedora 19 se podrá disfrutar bajo los entornos de escritorio GNOME 3.8, KDE 4.10 y MATE 1.6. Para este artículo he descargado las imágenes Live con Gnome Shell (951 MB) y la correspondiente a MATE (693 MB). Por cambiar un poco el registro en las pruebas de Fedora he instalado MATE y la habitual sólo en máquina virtual.
El equipamiento de Fedora 19 Beta
Imágenes Live probadas
La imagen con MATE viene bastante pelada de software: calculadora, gestión de Compiz MATE, editor de textos básico "Pluma", visor de imágenes "Eye" para MATE, gestor de archivos "Caja", "Midori" como navegador web, "Claws Mail" como cliente de correo, "Pidgin", "HexChat" y poco más).
La habitual con Gnome-Shell está algo más completa en cuanto a software, instalando los paquetes habituales debidamente actualizados: Firefox 21, Evolution 3.8.2, Empathy 3.8.1, Rhythmbox 2.99.1, Shotwell 0.14.1, LibreOffice 4.0.3.3, y el gestor de ficheros "Archivos" 3.8.1.
A pesar de haber pasado pocas horas del lanzamiento, en la primera actualización realizada con la herramienta Yum Extender, ha modificado más de 210 paquetes, incluida la versión del Kernel (instalación con MATE). Esto da idea, por una parte, de la gran actividad que hay en el proyecto, y por otra de lo verde que está en este momento. La lista completa de de tareas pendientes y concluidas la tenéis en el Wiki del proyecto.

Novedades de Fedora 19
En cuanto a las novedades más importantes, además de actualizar los paquetes habituales a las versiones más recientes, hay herramientas específicas para creadores y administradores de sistemas. Otra que puede pasar más desapercibida, aunque el trasfondo es notorio, es la confirmación de MariaDB como gestor de bases de datos por defecto.
Herramientas de desarrollo
Cambios en Developers Assistant, una herramienta ideal para comenzar proyectos de software que proporciona diversas plantillas.
La impresión 3D también tiene su hueco en Fedora 19, con la inclusión de herramientas para este tipo de tareas, tanto para la generación de modelos, como para el envío de código a las impresoras 3D. Open SCAD y Skeinforge son algunos de estos programas.
OpenSCAD funcionando en Fedora 19 Beta
OpenShif Origin, para construir plataformas PaaS (Platform-as-a-Service).
Node.js: para el desarrolo de aplicaciones de red escalables o aplicaciones en tiempo real a través de dispositivos distribuidos.
Herramientas para administradores de sistemas
Fedora 19 brinda una variedad de mejoras en el gestión del sistema operativo, incluyendo el proceso de arranque, la recuperación de fallos (Checkpoint & Restore), la migración de sistemas (Virt Storage Migration), y algún aspecto extra. Cabe destacar la ultima versión de OpenStack (Grizzly) lanzada en abril, la posibilidad de modificar la configuración de servicios al vuelo y sin reiniciar el sistema con systemd Resource Control.
Estas herramientas no suelen ser de interés para el usuario particular, pero no olvidemos que Fedora es en parte el laboratorio de pruebas de RedHat Enterprise Linux, una versión profesional destinada a servidores donde sí son importantes.
Fedora 19 Beta, primeras impresiones
Al tratarse de una versión beta, los problemas están a la orden del día. Si bien la distribución, una vez instalada funciona razonablemente bien, he probado "betas" bastante más afinadas. Lo cierto es que el instalador me ha dado diversos problemas hasta conseguir tener la distribución en una máquina física.
Os recomiendo, si queréis probar Fedora 19 Beta, recurrir a la instalación en máquina virtual. Hago este apunte en particular por el tema del módulo de particionamiento del disco duro, que no es muy intuitivo que digamos. En la versión descargada ofrece por defecto LVM, además de Btrfs y una partición estándar.
De la misma forma que siempre he dicho que OpenSUSE es mi preferida a la hora de tratar con KDE, para los entusiastas de Gnome-Shell, Fedora es mi candidata. En cuanto a la versión MATE, aunque venga tan escasa "de serie", comparando con la instalación fija que tengo de LMDE con este derivado de GNOME-2, creo que está bien resuelta y es una opción a considerar si os gusta Fedora y vuestra controladora gráfica no es muy potente.
Además de terminar aquellas características que están a medias, de aquí al lanzamiento final sólo se van a corregir errores. Esta beta es fiel reflejo de lo que será la versión terminada de Fedora 19. Como han dicho los creadores del proyecto, "hemos abierto la caja y el gato está vivo", frase que interpreto como velada alusión a las críticas recibidas, jugando con el significado de su nombre en clave, el gato de Schrödinger.
Nota: La imagen empleada de fondo en el escritorio MATE no viene con la distribución, la he añadido en consonancia con el nombre en clave. El autor de la fotografía es epSos.de
Web | Descarga
Fedora 19 Beta
(Haz click en una imagen para ampliarla)

Ver artículo...
" Fuente Artículo

Que opina? En el software libre los errores se pagan: MariaDB está desplazando a MySQL - 26/03/2013 13:30:30

" En los últimos años hemos sido testigos de caminos con difícil retorno de varios proyectos de código abierto que, por estar mal gestionados, han dado lugar a derivados que les han comido terreno, cuando no superado. Superado en calidad y número de usuarios.
Proyectos como Mandriva y OpenOffice prácticamente han desaparecido del mapa (más el primero que el segundo), en favor de sus derivados: Mageia y LibreOffice. Ahora es MySQL el que está en serio peligro, siendo desplazado de varias e importantes distribuciones, en favor de su fork MariaDB.
Un relevo que se está cocinando a fuego lento
Primero fueron Fedora y OpenSUSE las distribuciones GNU/Linux que anunciaron el cambio por defecto del gestor de base de datos a MariaDB. Después se han apuntado al carro otras como ArchLinux, Mageia y Slackware. Sin restar importancia a las tres últimas mencionadas, es significativo el cambio en Fedora y OpenSUSE.
Habrá quien piense, y no sin razón, que las distribuciones GNU/Linux las usamos cuatro amiguetes. Probablemente también, que la mayoría de usuarios necesitamos poco o nada un gestor de bases de datos tan potente como MySQL y MariaDB, y estará en lo cierto.
Ahí no radica la importancia del cambio. Lo realmente relevante es que detrás de Fedora y OpenSUSE están los servidores empresariales (RedHat Enterprise Linux y Suse Linux Enterprise Server). Esto ya cambia la perspectiva de la sustitución, porque en el mundo de los servidores, GNU/Linux sí tiene un peso importante.
Razones del cambio de MySQL por MariaDB y consecuencias
Las razones que subyacen tras esta elección están vinculadas el giro dado por Oracle a MySQL, que se ha vuelto más cerrada, no publicando ya información relevante sobre cuestiones de seguridad, pruebas, ni información de errores.
Oracle ha vuelto a equivocarse. En el mundo del software libre hay unas reglas, escritas o no, que cuando las saltas te quedas fuera. Por un lado, es una pena que proyectos tan importantes sufran estos cismas porque suponen trabajo duplicado en paralelo. Por otro pensar que, una vez pasado un tiempo, los derivados ofrecen tanta calidad, cuando no más, que el proyecto del que surgen.
MySQL es un buen producto con muchos años en el mercado y que tiene un peso relevante en el mundo de los servidores. Presencia que no se va a diluir a corto plazo porque en el entorno empresarial los cambios se suceden despacio.
No sé si todavía Oracle tiene margen de maniobra o no para rectificar, pero MariaDB cuenta con varios desarrolladores del proyecto original, es altamente compatible, goza de prestigio y, lo más importante, completamente libre. ¿Veremos a MySQL aterrizar en Apache o la FSF? El tiempo lo dirá.
Ver artículo...
" Fuente Artículo

Información: Gestione la información de su Compañía con un App - 25/08/2012 15:33:57

"Gestione órdenes de trabajo, visualice de forma georeferenciada y consulte base de datos desde su portátil o Iphone.
Con la solución de industria Open International Systems ahora las empresas podrán acceder a su sistema con una conexión de internet y en dispositivos móviles
Gracias a la tecnología Apps de Open Smartflex, la solución de industria para empresas de Telecomunicaciones y Servicios Públicos de Open International Systems Corp. www.openinternational.com, las empresas pueden realizar transacciones, consultas de bases de datos y agendar órdenes de trabajo desde computadores portátiles ó dispositivos móviles.
Open Smartflex se ejecuta de manera remota al contar únicamente con una conexión a Internet. El acceso remoto se produce mediante las Apps instaladas en diferentes computadoras portables ó dispositivos móviles como Tablets y Iphones, ya que el peso de estos programas es en promedio de 15 o 20 Kbites.
A partir de las Apps, los usuarios del sistema pueden acceder a la solución desde cualquier lugar que se encuentren y trabajar como si se encontraran en la Compañía, como si estuvieran en su equipo local. "En un proceso de consulta de cliente, por ejemplo, un canal externo ejecuta a Open Smartflex como si estuviera localmente, y el usuario puede ingresar a la base de datos de clientes, visualizar la estructura de productos y componentes que tiene a su nombre", agregó Pedro Felipe Ordoñez, Consultor de Industria de Open International Systems.
Para las órdenes de trabajo, un centro de despacho puede consultar las unidades operativas y asignar una orden pendiente de manera manual de acuerdo a la disponibilidad que esté observando en la pantalla.
Los reportes dentro del aplicativo también son programas Apps que se pueden ejecutar de manera remota y transparente para el usuario. Por ejemplo, un reporte de productos retirados en una zona se puede ejecutar y si adicionalmente la empresa cuenta con información cartográfica, este reporte se puede proyectar sobre una plantilla con información georeferenciada.
"Instalar por primera vez Open Smartflex en un portátil es tan fácil como instalar cualquier aplicación descargada de internet. El instalador del programa corresponde a la aplicación principal de Open Smartflex, la cual se descarga en el equipo, el usuario debe tener un framework de software libre, y luego se da la opción de ejecutar, de esta manera el aplicativo App de Open Smartflex se instalará en el equipo y el programa podrá ser encontrado en la barra de menú del inicio", comenta Ordoñez.
Ver artículo...
" Fuente Artículo

Es Noticia, Big Data: Historia del dato. De la Información al Conocimiento. - 18/04/2012 8:48:10

"Por Antonio Orbe
Alt1040

Big Data (I): Historia del dato.
Big Data se ha convertido en el nuevo mantra de las Tecnologías de la Información IT. El 90% de los datos de todo el mundo se han creado en los últimos dos años. El 80% de los datos mundiales son no estructurados, es decir, no están en bases de datos al uso. Solo el 20% de todos los datos está disponible para sistemas tradicionales.

Las empresas se enfrentan a enormes desafíos en la gestión del aumento de la información ya que las tecnologías tradicionales de IT se quedan cortas. ¿Cómo hemos llegado a esto? Es Big Data.

Historia del dato

En el principio era el batch o proceso por lotes. El primer proceso de datos ocurrió haciendo estadísticas del censo. Unos operadores creaban fichas perforadas (primera y última vez en que se vieron los datos con los ojos) y el ordenador realizaba los cálculos. Poco después aparecieron los terminales y las cintas, que aún hoy se usan.

A continuación vino el online o proceso transaccional o interactivo. Los usuarios empezaron a interaccionar directamente con las máquinas. Esto supuso una revolución ya que no eran operadores los que introducían los datos sino los mismos usuarios. Estos usuarios eran empleados de la empresa y en seguida los mismísimos clientes.

De pronto el interactivo pasó a ser prioritario relegando al batch a la noche. Nada era más importante que atender al usuario y darle el mejor tiempo de respuesta, idealmente por debajo de 1s. Todos los recursos de computación debían estar al servicio del online. Durante el día ningún proceso estaba permitido en una instalación de IT ya que podía perturbar el sacrosanto online.

Pero los procesos nocturnos seguían existiendo. En el catalogo de procesos batch estaba copiar ficheros, consolidar datos, realizar copias de seguridad y crear informes. Así como una transacción online movía algunos registros de algunas bases de datos, los procesos batch movían cantidades ingentes de registros pertenecientes a todas las bases de datos de la empresa. El batch seguía creciendo.

Pronto resultó que los ejecutivos primero y el resto de los usuarios después demandaban más informes. En efecto, teniendo todos los datos a su alcance, se preguntaban ¿vendemos más en el norte? ¿Vendemos más por la mañana? ¿Quién hace las compras más baratas? Los programadores de IT escribían programas que generaban los informes que les pedían. El tiempo medio variaba de días a semanas. Para cuando el informe estaba listo, las necesidades habían cambiado.

Y los ordenadores fueron creciendo. Al principio, cada nueva generación de un producto suponía un alivio para los clientes ya que podían hacer más con menos. Pero, con el tiempo, el crecimiento fue tal que con cada nuevo ordenador, la empresa necesitaba un modelo más bajo de la gama. Empezaba a sobrar capacidad de proceso.

El online seguía creciendo y seguía siendo sagrado. Un banco podía procesar muchos millones de transacciones online. Pero el batch crecía más deprisa. Aparecieron nuevas herramientas de consulta o queries. Un usuario podía crear sus propios informes sin contar con los programadores de IT. Con el problema de que un query mal diseñado cruza millones de registros de varias tablas sin un control de rendimiento. Los usuarios submitían consultas que colapsaban los ordenadores. El jefe de IT se plantaba y bloqueaba las consultas durante el día porque perjudicaban el online.

La necesidad de consultas se hacía más imperiosa y los ejecutivos necesitaban más y mejor información para tomar decisiones. De modo que se empezaron a crear bases de datos de consultas. Por la noche, como parte del batch, se copiaban tablas a otras bases de datos, se generaban índices y se cocinaban para que las consultas pudieran ser ágiles. Había comenzado el datawarehouse, los datamars o la analítica de negocio.

El mundo transaccional llamado OLTP (On-Line Transactional Processing) había dado paso al OLAP (On-Line Analytical Processing). El análisis de grandes bases de datos dejaba de ser nocturno y se hacía diurno.

Mientras, los ordenadores seguían creciendo. Los fabricantes comenzaron a pensar en nuevos mercados ya que el tradicional OLTP apenas consumía máquina. Nuevos players se fueron añadiendo, empresas de software que creaban programas para analizar mejor los datos. Los clientes empezaron a pensar en usar aún mayores cantidades de datos, un objetivo antes impensable. El mercado de las consultas de grandes bases de datos comenzaba a estar maduro.

Había nacido Big Data.

Antonio Orbe - 9 de abril, 2012, 23:03

Big Data (II): De la información al conocimiento

Cada día creamos datos que vienen de una multiplicidad de fuentes: registros de tráfico, posts que ponemos en los sitios de social media, fotos y vídeos online, sensores que recogen información del clima, transacciones bancarias online, GPS, llamadas de teléfono o registros de los organismos gubernamentales. Juntos suman la cantidad de 2,5 trillones de bytes, tanto que el 90% de ellos se han creado en los últimos 2 años. Es Big Data.

Big Data es un conjunto de datos que es demasiado grande, se actualiza demasiado deprisa y no encaja en las estructuras de proceso de datos IT de las empresas.

De la información al conocimiento

La información son los datos que tenemos a nuestro alcance. Es abundante, se olvida y cambia. El conocimiento consiste en extraer lo valioso de la información, su riqueza y su profundidad. El conocimiento permite tomar decisiones razonadas y actuar en consecuencia. La información tiene poco valor si no se transforma en conocimiento. Grandes cantidades de datos son inútiles si no podemos sacar conclusiones. Es necesario pasar de la información al conocimiento.

Big Data tiene dos desafíos. Manejar ingentes cantidades de información y analizarla para entenderla.

En los últimos años han florecido las empresas que se dedican de una u otra forma al manejo de grandes volúmenes de datos, tanto en relación al hardware, como al software y a los servicios asociados. Oracle, el gigante de las bases de datos, tiene un producto llamado Exadata en el que lo combina todo en lo que se denomina un appliance.

Antes, Teradata ya se dedicaba al datawarehouse o almacén de datos. IBM siempre ha tenido productos relacionados con el mundo de Business Analytics. Hace poco compró Netezza, otro appliance en el que todo está incluido.

Desde el punto de vista del software, muchas empresas han saltado al mercado con productos que manejan grandes cantidades de datos, los estructuran en cubos de información preprocesada y los atacan con herramientas de consulta como Cognos, también comprada por IBM.

Big Data tiene tres dimensiones, las tres V:

Volumen. Terabytes o Petabytes de información inundan los proyectos de Big Data
Velocidad. El dato de ayer no sirve hoy, hay que responder al mundo cambiante al instante
Variedad. Los datos ya no solo están estructurados en bases de datos a la antigua usanza. Ahora incluyen audio, video , posts de social media y mucho más.

El análisis de los grandes datos puede descubrir patrones escondidos que antes era muy complicado procesar. Pero el manejo de los datos no es cosa fácil empezando por el principio. La calidad de los datos es esencial. Todas las empresas tienen registros con clientes duplicados o vacíos.

Desde el mismo inicio hasta el informe final se usan multitud de herramientas que quieren asegurar la fiabilidad de las conclusiones. Solo el portfolio de productos de IBM para la gestión de la información tiene decenas de productos, de calidad, de manejo, de reporting, de consolidación, de minería o de predicción.

Para algunas grandes empresas como Google, Big Data es una necesidad imperiosa. Nadie sabe cómo funciona o qué hacen con su masiva cantidad de datos pero es seguro que el coste de su gestión es muy elevado. Para Pymes, productos de alquiler, en la nube o de software libre están disponibles además de un hardware relativamente asequible.

Pero Big Data comienza a penetrar en mundos antes imposibles. El LHC, gran colisionador de hadrones del CERN genera tantos datos que la mayor parte de ellos se desechan, confiando en que no estén tirando nada importante.

Siempre es posible recolectar más y más datos y hacerse preguntas más complejas. En el mundo de la sanidad la gestión de todas las historias clínicas. Más aún, todas las imágenes médicas como radiografías y resonancias. Y siempre existirá un médico que quiera cruzar datos de, por ejemplo, todas las radiografías de pacientes con tumor que no han muerto en cinco años, tenían familia y no tenían antecedentes de alcohol.

Y querríamos saber los datos de consumo eléctrico de todos los contadores al minuto para tomar decisiones adecuadas de consumo. ¿Contadores? ¿Por qué no cada enchufe y cada electrodoméstico? O saber todos los tuits que hablan de un determinado tema y relacionarlos con noticias de prensa. O seguir el movimiento de cada vehículo en las carreteras. O estudiar la influencia de los rumores que se propagan en los social media sobre las bolsas y productos financieros.

El catalogo de preguntas que pueden hacerse las industrias, sectores y empresas es inacabable. Es Big Data.

Antonio Orbe - 11 de abril, 2012, 16:35

Licencia. Acerca del uso del contenido de nuestros blogs
A menos que se especifique lo contrario, todo el contenido y los comentarios de todos los blogs de Hipertextual se encuentran bajo licencia Creative Commons Reconocimiento 2.5, lo cual significa que eres libre de:
Copiar, distribuir y comunicar públicamente cualquiera de los posts escritos o comentarios hechos en nuestros blogs.
Darles usos derivados, por ejemplo modificarlos según tus necesidades.
Hacer uso comercial de nuestros posts o comentarios hechos. Por ejemplo, se pueden usar nuestros posts en un blog con fines comerciales o ser publicados en un medio masivo como periódicos o revistas.

……………………………………………

Fuentes:
Big Data 1: Historia del dato.
Big data 2: De la información al conocimiento
Imagen: DIKW

.... Twittear

Artículos relacionados:

- Big Data: Historia del dato. De la Información al Conocimiento.
- Big Data. La fuente para el conocimiento en el siglo XXI
- Entender el futuro: La evolución de las bases de datos - Big Data
- Introducción a la analítica web
- Clicks rigurosamente vigilados. Los numerati nos analizan
- Internet de los objetos: Modelos de negocio
- Gestión del Conocimiento: Una Herramienta Esencial para el Diseño de Sistemas de Información
- Tendencias 2011-2015 en los Sistemas de Gestión de Clientes CRM
- Tendencias 2010-2012 de la Inteligencia de Negocios (BI)
- Business Intelligence. Los Sistemas de Soporte de Decisiones DSS
- Business Intelligence: Prediciendo el Futuro de los Negocios
- Introducción a la minería de datos o data mining
- Chile puede llegar a ser potencia mundial en analítica de negocios
- Analizar las Estadísticas del Sitio Web Clave de una Gestión Efectiva
-
En la web:
- The Age of Big Data . The New York Times
- 2012: ¿qué puede esperar de la tecnología este año?
- El desafío del ""big data"", más que sólo grandes volúmenes de datos
- Implicaciones éticas del big data , Enrique Dans
- Big Data: una pequeña introducción, Enrique Dans
- Big data: The next frontier for innovation, competition, and productivity
- The year in big data and data science
- 2012: El año del BYOD, el Big Data y el crecimiento de cloud - Network World
- Analítica Web Cualitativa para todos los públicos (y bolsillos)
- Conceptos básicos del diseño de una base de datos
- Data, Information, Knowledge and Wisdom
- Best Web Analytics Tools: Quantitative, Qualitative, Life Saving! | Occams Razor by Avinash Kaushik
- Business Analytics , Getting the Point

Estoy en: Facebook - NetworkedBlogs - Delicious - Twitter - Blogalaxia - Bitacoras.com - My Twitter Times
Etiquetas en Bitacoras.com: management, gestion, innovacion, conocimiento, organizacional, imaginactivo, manuelgross, bligoo

Ver artículo...
" Fuente Artículo

Que opina? 6 interesantes proyectos Open Source para el sector educación - 14/01/2012 13:00:09

"En SourceForge, un referente en cuanto a portales de software libre y una comunidad de desarrolladores mundialmente reconocida, se han recogido algunos de los más populares proyectos Open Source con resultados positivos en el ámbito educativo, uno de los sectores más importantes en cuanto a promoción de libertades computacionales y construcción de conocimiento en conjunto. Aquí están:
OpenTeacher
Una herramienta para crear tests de lenguaje, perfecto para practicar nuevos idiomas y diseñar pruebas para facilitar el aprendizaje. Se resume en apenas un espacio para señalar el idioma natural del usuario más el idioma que quiere aprender, y luego una lista de palabras junto a su traducción separada por el símbolo "="; restará que OpenTeacher haga su trabajo.
Childsplay
Una colección de juegos y actividades para los más pequeños: clásicos juegos de memoria (imágenes, sonidos, acciones), desarrollo de operaciones matemáticas básicas, refuerzo del abecedario, puzzles, colecciones de animales, una aplicación de billar y hasta un PacMan, entre otros ejemplos. Cuenta con opciones para cambiar su idioma y corre en todos los sistemas.
Brain Workshop
Un admirable proyecto para fortalecer las habilidades cerebrales como la memoria de corto plazo, a través del juego. Tal vez no resulta sencillo al principio pues se basa en el ejercicio de varias actividades simultáneamente: pulsar una tecla al escuchar el mismo sonido un par de veces, o pulsar otra tecla si lo que se repite es la posición del cuadrado. Según comentan sus desarrolladores, y muchos usuarios lo avalan, está respaldado por estudios científicos que comprueban la eficacia de su método.
Logisim
Un software para construir y simular todo tipo de circuitos digitales lógicos, perfecto para estudios computacionales y de ingeniería. Bastante intuitivo aunque no por eso incompleto pues permite virtualizar todo tipo de esquemas para analizarlos al instante. Requiere de Java y funciona en Windows, Mac y Linux, cuenta con versión en español y permite exportar los resultados en formato GIF.
Moodle
He tenido la oportunidad de probar esta plataforma de gestión de cursos virtuales en más de una asignatura, y lo mejor es el nivel de adaptación a las necesidades tanto de una institución educativa, como de organizaciones y empresas. Foros, wikis (muy elaborado), bases de datos, la posibilidad de compartir documentos con los estudiantes o interesados, y una gran comunidad dispuesta a atender las dudas con la plataforma, son algunas de las más sencillas características que tiene para ofrecer.
Celestia
Y para finalizar un simulador de planetas, un software tridimensional compatible con Windows, Linux, y Mac OS X que recoge información y todo el detalle gráfico de cientos de miles de cuerpos celestes para fomentar en los alumnos el gusto por la astronomía. Los viajes virtuales guiados son su mayor potencial, aunque también cuenta con recorridos libres -sólo cuidado con perderse-.
Sigue las noticias por twitter.com/wwwhatsnew, Facebook.com/wwwhatsnew o Google Plus.

Ver artículo...
" Fuente Artículo

Interesante, ¿Es posible dirigir mi negocio con software de código abierto? - 24/08/2011 17:40:32

"Cada vez que una pyme me hace la pregunta, "¿Puedo solucionar mis necesidades de software utilizando software de código abierto?" Mi respuesta es un simple "Sí, podemos!"
Hoy en día existen alternativas de de código abierto para casi todos los conocidos programas comerciales que hay en el mercado. ¿Son estos software de código abierto capaces de igualar el rendimiento del software comercial? Pues bien, en la mayoría de los casos lo hacen e incluso superar a sus alternativas comerciales en rendimiento.
En los últimos 5 años los costos de las empresas se dispararon y la crisis financiera impacto en las principales economías del mundo. Por otro lado hemos visto muchas aplicaciones de código abierto poco a poco alcanzar una madurez que ha convencido a expertos de software que: "Sí, el software de código abierto puede ser utilizado en una empresa "Casi todas las grandes empresas u organizaciones que hay hoy en día utiliza software de código abierto, de alguna manera, en su portafolio de TI.
De hecho, cada vez más empresas, especialmente en el sector de las PYME, usan y operan con éxito la implementación de Software Libre. Su infraestructura de TI, evidentemente, ha visto un aumento en el uso de código abierto. Sistemas operativos libres, especialmente de Linux como ClearOS, CentOS, Ubuntu y Red Hat han convertido en las principales alternativas del mercado.
Bases de datos de código abierto como MySQL, PostgreSQL, Ingres, etc están superando en porción del mercado a sus alternativas comerciales como Microsoft SQL y Oracle. Los lenguajes de programación de código abierto como Java, PHP, Python, Ruby, etc son estándares de facto para las aplicaciones web y sitios web en Internet.
Incluso el negocio de soluciones de clase empresarial es progresivamente dominado por el software de código abierto. Por ejemplo, Open Source Customer Relationship Management (CRM) como vtiger y SugarCRM plantea un serio desafío a la CRM de marca y son ampliamente aceptadas. Grandes corporaciones usan vtiger CRM en su negocio.
En cuanto al correo electrónico de código abierto y soluciones de colaboración como el servidor Zimbra Collaboration han dado a Microsoft varias noches de insomnio. Zimbra desafía directamente a Microsoft Exchange y es la mejor alternativa de correo electrónico y un sistema de colaboración que se integra fácilmente con sistemas de Web 2.0.
Los gestores documentales y de contenidos de código abierto como WordPress, Alfresco, Drupal, Typo3, Joomla no sólo se han convertido en nombres aceptados si que la mayoría de las webs del mundo usan algunos de estos sistemas. Es más, el software de intelligencia del negocio open source como Pentaho está igualando rápidamente a las alternativas propietarias.
El factor más importante entre las implementaciones exitosas de código abierto es la búsqueda de un proveedor de confianza que asista y ayude para la implementación, personalización y configuración del sistema.
En re-ingenia soluciones proveemos consultoria, desarrollo e implementación de sistemas de codigo abierto y especialmente vTigerCRM. Si deseas conocer mas sobre este CRM open source por favor no dudes en probar la demo de vTigerCRM en español
Ver artículo...
" Fuente Artículo

Consulte Información de Gana lo que quieras El futuro de las TI en la Corporación y Las estrategias de marketing consiste
Consulte Información de Gana Emprendedor Web El futuro de los Negocios y Empresa Oracle
Consulte la Fuente de este Artículo

No hay comentarios: