Continuously secure and manage your open source components

WhiteSource Software, the leader in continuous open source security and compliance management, presented and demonstrated a deep integration with Dimensions CM allowing teams to secure and manage use of open source components at the recent Micro Focus DevOps Interchange in Chicago. Ashley Owen explains more…..

DevOpsXchangeChic

During the Micro Focus DevOps Interchange 2016 conference this week, WhiteSource, the leader in continuous open source security and compliance management, presented and demonstrated a deep integration with Dimensions CM allowing teams to secure and manage use of open source components.  This partnership makes the WhiteSource open source security and license compliance solution available to users of Serena Dimensions CM 14.3.2 in November.

business-operations

WhiteSource integrates directly into the Dimensions CM Continuous Inspection toolchain, enabling rapid feedback on open source security and license compliance risks for business critical custom applications within the Application development and delivery lifecycle. The invocation of the WhiteSource service is performed seamlessly and the results are available within Dimensions CM Pulse UI.

WhiteSource’s integration gives users the ability to find and fix open source components with security vulnerabilities, severe software bugs or compliance issues related to licensing. These features are seamlessly integrated for Serena users, allowing a safer, better use of open source components in their software while simultaneously increasing productivity. No longer will teams collaborating on projects have to manually track open source usage, or speculate whether they are using vulnerable components.

 

Ashely

 

 

Ashley Owen

Zeit, dass sich was dreht

Der gestern Abend bekannt gewordene Datendiebstahl bei Yahoo verdeutlicht einmal mehr, dass Unternehmen ihre Sicherheitsstrategie genau prüfen und an die sich ändernden Herausforderungen anpassen sollten. Ein Kommentar von Christoph Stoica zum Rekordhack bei Yahoo.

68 Millionen geknackte Nutzerkonten beim Cloudspeicher-Dienst Dropbox, 120.000  gestohlene Kundenzugangsdaten bei der Telekom und jetzt der Rekordhack von einer halben Milliarde Nutzerdaten beim Internetdienst Yahoo, dem einstigen Vorzeigeunternehmen der New Economy. Zwischen diesen drei Meldungen lagen noch nicht einmal 8 Wochen und man wird das Gefühl nicht los, dass sich Informationen und Berichte über Datendiebstähle sowohl hinsichtlich der Anzahl aber vor allem auch in Bezug auf die Zahl der geknackten Nutzerkonten inflationär mehren.  Für die Presse sind solche spektakulären Cyberhacks ein gefundenes Fressen und vielleicht gibt es sogar schon manch pfiffiges Wettbüro, das jetzt Wetten annimmt, wie lange es wohl dauern wird, bis auch der aktuelle Rekordhack mit 500.000.000 kompromittierten Nutzerkonten von einem noch größeren Diebstahl übertroffen wird – für die geschädigten Unternehmen hingegen bedeuten solche Angriffe zunächst einmal vor allem einen Imageverlust und der Verlust der Glaubwürdigkeit. Im Falle von Yahoo scheint diese Datenpanne jedoch auch reelle finanzielle Auswirkungen zu haben.

Wie immer bei der Veröffentlichung solcher  Mega-Datenpannen melden sich auch jetzt wieder diejenigen zu Wort,  die mahnend den Zeigefinger heben und sich fragen, wie ein Datendiebstahl solchen Ausmaßes überhaupt möglich ist, und warum dieser so lange anscheinend unentdeckt blieb. Das Wort Fahrlässigkeit wird auch dabei – und das sicherlich teils auch zu Recht –  wieder schnell die Runde machen.  Es ist  schwer vorstellbar, dass gerade die oben genannten Unternehmen, allesamt aus der IT- Branche, grob vorsätzlich und fahrlässig gehandelt haben  in Bezug auf die seinerzeit getroffenen Sicherheitsmaßnahmen.  Bedenken sollte man, dass alle kürzlich veröffentlichen Datendiebstähle auf Netzwerkangriffe zurückgehen, die bereits vor   4 beziehungsweise 2  Jahren im Falle von Yahoo erfolgten.  Damals galt in den Unternehmen noch die Devise „Schützen und Verteidigen“ als ausreichend  für den Schutz der sensiblen Daten, man investierte vor allem in immer ausgefeiltere Firewalls und Antivirensoftware und die Kombination  aus Passwort und Nutzernamen für die Authentifizierung galt als bestmöglicher Kompromiss aus Sicherheit und Nutzbarbarkeit. Doch mit den sich rasant neu entwickelnden Trends wie Cloud Computing und Cloud Services, Social Media, mobiles Internet, BYOD  muss sich auch der Blick auf die IT-Sicherheitsstrategie komplett ändern. Die wachsende technologische Durchdringung und Vernetzung, die damit einhergehende Komplexität der IT-Landschaften, die sich verändernden Formen der geschäftlichen Zusammenarbeit sowie die ‘always on’ Mentalität, sprich zu jeder Zeit und von jedem Ort online erreichbar zu sein, stellt die IT-Abteilungen ganz klar vor neue Herausforderungen. Der klassische Schutz der IT-Netze und Systeme an den Außengrenzen erodiert zunehmend,  denn es gibt keine Grenze mehr zwischen „innerhalb“ und „außerhalb“  des Netzwerkes – das Netzwerk ist heute überall  und der Feind ebenso.

DeYahoo1

Zeit, dass sich was dreht: Von der statischen IT-Sicherheit hin zur dynamischen IT-Sicherheitsstrategie

Unternehmen sind heute angesichts der stetig wachsenden Bedrohungslage was Cyberattacken anbelangt mehr denn je gefordert, ihre Sicherheitsstrategie zu überprüfen und den geänderten Herausforderungen anzupassen. Die technischen Möglichkeiten hierzu stehen – anders als auch vielleicht noch vor 4 Jahren –  beispielsweise mit einem risikobasiertem Zugriffsmanagement bereits zur Verfügung. Eine Analyse der Risiken und die Implementierung einer risikobasierten Zugriffssteuerung auf  der Grundlage von Multi-Faktor-Authentifizierung sollte daher die Basis eines jeden Sicherheitskonzeptes sein. Eine weitere Grundlage für eine umfassende IT-Sicherheit ist ein zentraler Überblick über alle vergebenen Berechtigungen. Die Konzepte werden auf Basis von Attributen, IT- und Geschäftsrollen sowie Richtlinien definiert. Auch die Vereinfachung und Automatisierung von Prozessen zur Rezertifizierung der Zugriffsberechtigungen und die Etablierung von Identity Governance Initiativen gehören dazu.

Fazit:

Zusammenfassend kann man sagen, dass eine komplette Neubewertung des Umgang mit Berechtigungen und Zugriffen erforderlich ist. Für die Verwaltung von Benutzeridentitäten und Zugriffsrechten reicht eine IT-zentrische Form des Identity Management alleine nicht mehr aus. Ging es früher im Wesentlichen darum, die Benutzerverwaltung zu automatisieren und den Datenschutz- und Compliance-Richtlinien zu entsprechen, sínd heute intelligente Verwaltungslösungen gefragt, um die IT-Sicherheit an sich verändernde Anforderungen anzupassen und situativ und in Echtzeit reagieren zu können. Unternehmen, die angesichts sich massiv häufender Datendiebstähle und Cyberattacken , nach wie vor nur auf eine statische Sicherheitsstrategie setzen, handeln fahrlässig – sowohl in Bezug auf die Datensicherheit als auch im Hinblick auf mögliche Image- und Wertverluste ihres Unternehmens.

Christoph

Christoph Stoica

Regional General Manager DACH

Micro Focus

 

The choice is yours – #DevDay drivers

The Micro Focus DevDay roadshow continues to attract large crowds. David Lawrence attended our latest shows to learn why it remains the must-see event for the COBOL community

#DevDay draws in the crowds

With hundreds of attendees over the past 12 months, Micro Focus DevDays continue to pack them in. Last  week’s events in New York and Toronto were no exception. This blog uncovers why so many of the global COBOL community attend our event.

We spoke with application developers from institutions, large and small, looking for solutions to build on, maintain, extend and adapt their inventory of business-critical COBOL applications to meet new business needs or opportunities. These customers view COBOL as fundamental to their respective business strategy and operations, not just for today, but into the future. These clients have, by and large, seen how extending and adapting their current proven and reliable COBOL solutions delivers more value faster, and with less risk than other strategies.

IMG_0066

Skilling up

One attendee we spoke with came to DevDays because of increasing new business demands on his application portfolio. This person has been looking to increase his COBOL staff to meet them. He had advertised for COBOL programmers, but it seemed there were none to be found in his market. So, he is changing his approach, and has now decided to bring in a skilled C# or Java developer and train them in-house on COBOL.

We suggested the expediency of putting these new staff members in front of a modern IDE for COBOL, one which looks and feels like the modern IDEs available for Java or C#, and is supported for both Eclipse and Visual Studio environments. Micro Focus Visual COBOL and Enterprise Developer fit the bill nicely. These modern IDE’s offer advanced automation features, such as configurable, panel-based layouts, wizards, and a context sensitive editor, and, a seamless interaction with modern managed code environments (Java and/or .NET). They will be entirely familiar to those from a Java or .NET background.

Coincidentally, that topic was covered in the afternoon session which showed Micro Focus’ solutions for mainframe developers:  Enterprise Analyzer and Enterprise Developer. We heard from C# programmers who found that by using Enterprise Developer as their IDE they were productive in COBOL in less than a week.

CsPW1yFW8AAb05h

Go OO – ­and fast

In response to a question about working with object-oriented solutions, the audience was treated to a live demo by Micro Focus’s own Mike Bleistein. Using the standard capabilities of our development tools, Mike built an interface to a traditional relational database, using an older COBOL application. Mike used our object oriented COBOL classes to create a simple mortgage rate query application with a modern user interface, which made it more accessible and more easily used than the ‘green screen’, text-based implementation it would replace.  Such a transformation takes an hour for a simple application, a fraction of the time it would take to take to do this by hand.

COBFather

Banking on the latest capabilities

Another attendee, a major international banking client, uses our mainframe development technology. They wanted to identify a path towards implementing the latest release of our Enterprise Developer product. This release offers a more efficient Eclipse-based environment which will integrate into their existing Eclipse environment. In addition, this customer is also seeking ways to establish a more available and easily managed mainframe test environment, which is another of the Micro Focus enterprise technology offerings.

Opening up Open Systems

A developer whose organization builds and operates core COBOL systems under UNIX, said their reason for attending DevDay was driven by market demand. Their challenge is simple – how can their core business service be made available across new internet and mobile interfaces? Establishing a modern, digital interface for their clients is vital. Our experts showed the Micro Focus Visual COBOL technology, which does just that, providing insight in to how that challenge can be met, fast, at low risk.

Technology choices

We spoke with an independent software developer. Devising a new application, the developer has been exploring a range of modern development technologies for building the right ‘front end’. But when we asked them about the core business processing, they confessed “That’s a no brainer – it has to be COBOL – it’s the best tool for the job”. DevDay showed them live examples of how COBOL and newer technologies can integrate and co-exist in today’s platforms.

Micro Focus – the COBOL guys

So, what are we saying here? Simple – a great many organizations, all facing unique challenges, keep turning and returning to COBOL, and Micro Focus technology, to resolve their issues.

Micro Focus continues to invest over $60 million annually to support just about any COBOL environment our customers have run in the past and present, or will run in the future. It was great to meet many of them this week in New York and Toronto. Here’s to many more #DevDay events.

David Lawrence

Global Sales Enablement Specialist

DLblog

We’re heading to Oracle Open World

This Ed Airey blog explains how the modern enterprise can harness technology and technique to outpace and counter the changing face of completion and achieve sustainable business agility. Ed will be at Oracle Open World discussing this further at his session: Destination Java: Take enterprise apps to JVM and the Cloud so if you’re attending don’t hesitate to find him and chat more…

Into the Future: new tools for the agile enterprise

What is the agile enterprise? Is it an organization ready to respond to new demands or business opportunity, rapid changes in the market or changes in consumer demand?  To survive-it must achieve all these goals and more. This is the new norm for 21st century business – ever increasing flexibility. But how does business obtain and keep that nimble responsiveness to change? Is there a secret ingredient to the recipe of organizations that have done so already?  To be agile is to be adaptable—to flex and shift to meet the challenges of one’s environment. Just as the chameleon adapts to his surroundings shielding itself from predators a business organization must adjust its strategy and approach to counter its competition.  For most enterprise shops this is not an easy feat. Mired in technical debt, most IT leaders struggle to manage their IT backlog alongside new business initiatives.  Addressing both requires new thinking, new tech and a new approach to enterprise modernization.

blurryprosche

The Case for Modernization

For organizations struggling to cope with increasing IT debt and an older enterprise application portfolio, consider the innovative path taken by a very well-known European auto-manufacturer.  For years, this organization maintained a sterling reputation for quality, performance and service.  Its aging IT infrastructure, however, now plagued with stability problems threatened its ability to both service its customers and maintain its industry prestige.

The manufacturer considered a complete replacement of its core application infrastructure but quickly realized this would be both costly and risky to business operations.  In a fiercely competitive auto market, competitive advantage was paramount and this organization couldn’t afford to lose a step to the competition by disregarding its precious intellectual property.

Modern tools and new technology was employed to modernize its core enterprise applications. Using the power of Eclipse, new and existing IT teams could quickly integrate existing enterprise applications with Java, web services and other solutions. Enterprise application deployment to the Java virtual machine (JVM) enabled future flexibility and scale to meet new business requirements and opportunity. Modern tools and a new mindset delivered fast results—all without rewriting valued application code.

oow-exhibitor-tw-3097862

Oracle Open World #OOW16

The key to this strategy—unlock the value of IT investments. This year in San Francisco at the Oracle Open World event come and see the future of enterprise application modernization for yourself.  Explore how to easily take existing enterprise systems to new platforms including Java, the JVM, and Linux.  We’ll examine how this European car manufacturer and other businesses took their enterprise applications to modern environments using new tools, new thinking and Micro Focus’ game changing solution Visual COBOL

If you’re attending please don’t hestitate to come and visit us at our booth at the Networking Station @ Oracle Linux, Virtualization and OpenStack Showcase and please attend my sessionTake Enterprise Apps to Java Virtual Machine and the Cloud’ on Tuesday, Sep 20 at 16:00 -16:20 in the Moscone South Exhibition Hall to discuss modernization options further….

Ed

Datenschutz und Datensicherheit

Nach jahrelangem Hin- und Her haben EU-Rat und -Parlament Mitte des Jahres nun endlich die neue Datenschutzgrundverordnung durchgewunken. Diese wird zu einer weitgehenden Vereinheitlichung europäischen Datenschutzrechtes führen und löst die geltenden nationalen Gesetzgebungen auf Grundlage der EU-Datenschutzrichtlinie ab. Das neue Gesetz gilt ab 2018 und Unternehmen jeder Größe haben demnach nur knapp zwei Jahre Zeit, die Einhaltung der neuen Vorschriften zur Speicherung und Verarbeitung von Kundendaten zu gewährleisten; andernfalls drohen ihnen massive Bußgelder. In unserem Blog beleuchten wir die Kernelemente der Reform und erläutern, worauf Unternehmen achten sollten.

 – Anforderungen an Unternehmen im Kontext der neuen EU-Datenschutzgrundverordnung

In Bezug auf die personenbezogenen Daten, ist das Jahr 2016 von spannenden Entwicklungen geprägt. Nach dem gekippten Safe-Harbour Abkommen haben EU-Rat und –Parlament Mitte April 2016 nach jahrelangem Hin- und Her das neue europäische Datenschutzgesetz, die „Datenschutz-Grundverordnung“ (DS-GVO) verabschiedet, welches die bisher geltende Datenschutzrichtlinie von 1995 ab sofort ersetzt. Die Politik verfolgt damit das Ziel, die Datenschutzrechte von EU-Bürgern zu stärken, das Vertrauen in die digitale Wirtschaft wiederherzustellen und Kundendaten durch Einführung neuer Datenschutzprozesse und -kontrollen in Unternehmen besser zu schützen.

Im Gegensatz zur Richtlinie ist die neue Grundverordnung kein Rahmen, der in nationale Gesetzgebung umgesetzt werden soll, sondern eine unmittelbare Verpflichtung für alle Mitgliedstaaten – ein EU‐weit geltendes Gesetz, das über den nationalen Gesetzen steht und Anpassungen dieser Gesetze erfordert. Derzeit ist Regelung des Umgangs mit sogenannten personenbezogenen Daten in den Mitgliedsstaaten der EU noch unterschiedlich ausgeprägt. In Deutschland gilt das Bundesdatenschutzgesetz (BDSG), in Österreich das Bundesgesetz über den Schutz personenbezogener Daten und in der Schweiz gilt das Bundesgesetz über den Datenschutz. Allein schon diese drei Gesetze zeigen, dass die Datenschutzrichtlinie von 1995 einen Flickenteppich aus nationalen Gesetzen geschaffen hat, der vor dem Hintergrund der digitalen Globalisierung mehr und mehr zu rechtlichen Grauzonen und Rechtsunsicherheit führte. Hinzukommt wie schon im letzten Blog erwähnt, eine zunehmende Erhebung personenbezogener Daten zu Geschäftszwecken. Daten sind heute mehr denn je Wirtschaftsgut statt Schutzgut, mit denen eine Vielzahl von Unternehmen Geld verdient – genau das rückt Daten wie Unternehmen in das Fadenkreuz von Cyber-Kriminellen. Rechtsunsicherheit, gesteigertes Datenaufkommen, mehr Kriminalität – fast täglich gelangen neue Fälle von Verlust oder Missbrauch personenbezogener Daten an die Öffentlichkeit. Vor diesem Hintergrund ist die neue europaweit einheitliche Regelung des Datenschutzes absolut notwendig.

Kernelemente der Reform – Worauf sollten Unternehmen achten

Stellvertretend für alle Änderungen, die mit der EU-Datenschutz Grundverordnung einhergehen, betrachten wir nachfolgend drei Aspekte, die für IT-Abteilungen von besonderem Interesse sind.

Infographic, Europäische Union 2015
Infographic, Europäische Union 2015

Recht auf Vergessen

Bislang liegt bei den meisten Unternehmen der Fokus darauf, wie man möglichst erfolgreich viele Daten sammeln kann – die wenigsten beschäftigen sich damit, wie sie diese gegebenenfalls auch wieder aus ihren Systemen löschen können. Dies wird eine Herausforderung für viele Firmen, denn angesichts der riesigen Mengen an gesammelten und teils auch unstrukturierten Daten wird es schwieriger den Überblick zu wahren, wo welche Daten verzeichnet sind. Um interne Datenflut rechtzeitig in den Griff zu bekommen, ist es wichtig, relevante Informationen aufzubewahren und unbedeutende Daten gleichzeitig rechtskonform zu beseitigen. Ein manuelles Sichten und Filtern des kompletten Datenbestands in einem Unternehmen ist in der Realität aber schier unmöglich, geschweige denn effizient. An dieser Stelle können jedoch Data-Governance-Tools Abhilfe schaffen, indem der vollständige elektronische Datensatz eines Unternehmens durch ein intelligentes und automatisiertes System geordnet und bereinigt wird.

Technische und organisatorische Anforderungen

Die Anforderungen an Unternehmen personenbezogene Daten technisch und organisatorisch gegen Verlust, Veränderung und Manipulation abzusichern wurden erheblich verschärft. Waren bisher offene und eher allgemeine Formulierungen in nationalen Gesetzen die Grundlage für die Verpflichtung der Unternehmen, gibt es jetzt detaillierte Vorgaben, wie die Absicherung der IT–Systeme vor ungewollten Zugriffen zu erfolgen hat. Die zu implementierenden technischen und organisatorischen Sicherheitsmaßnahmen orientieren sich an den Schutzzielen der Vertraulichkeit, der Integrität und Authentizität der personenbezogenen Daten – oder einfacher gesagt, man verlangt, dass Kundendaten zu jederzeit dem Risiko entsprechend angemessen geschützt sind. Unternehmen müssen sicherstellen, dass nur ermächtigte Personen Zugang zu personenbezogenen Daten erhalten und das gespeicherte oder übermittelte personenbezogene Daten weder unbeabsichtigt noch unrechtmäßig zerstört werden. Ferner sind die Daten vor unbeabsichtigtem Verlust, unbeabsichtigter Veränderung, unberechtigtem Zugang oder Weitergabe zu schützen. Die Umsetzung eines Sicherheitskonzepts für die Verarbeitung personenbezogener Daten muss stets gewährleistet sein. Kurzum: Diese Vorgabe schreibt vor, dass Unternehmen dem aktuellen Stand der Technik entsprechende Kontrollmechanismen zum Schutz von Daten einführen müssen ( Stichpunkt : Multi-Faktor-Authentifizierung )

Anzeige bei Verstößen – hier ist Echtzeit- Sicherheitsintelligenz gefragt

Ein weiteres Kriterium für die Bemessung des Bußgeldes und eventueller Sanktionen bei Verstößen gegen die neue Grundordnung ist die unverzügliche Meldepflicht bei  einer Verletzung des Schutzes personenbezogener Daten.  Unternehmen sind verpflichtet die jeweilige Aufsichtsbehörde sowie die Betroffenen möglichst ohne unangemessene Verzögerung und spätestens binnen 72 Stunden über die Datenpanne zu benachrichtigen. Neben dem Zeitpunkt sowie der Art und Weise, wie der Verstoß der Aufsichtsbehörde bekannt wurde –  insbesondere wird hier auf die Selbstanzeige hingewiesen – spielt der Grad der Verantwortung unter Berücksichtigung der getroffenen technischen und organisatorischen Maßnahmen eine besondere Rolle bei der Bemessung der Sanktionen. Unternehmen sind besonders gefordert denn angesichts immer stärker verfeinerter Pishing-Methoden, neuer Bedrohungen durch Ransomware und aufgrund erodierender Außengrenzen des Netzwerkes, bieten sich den Cyber-Kriminellen immer mehr Einfallstore für ihre Angriffe. Erschwerend kommt hinzu, dass gerade professionelle Angreifer ihre Angriffe so geschickt verschleiern und weitestgehend keine oder nur wenige Spuren hinterlassen, die mit herkömmlichen Kontrollmechanismen nur schwer aufzudecken sind. Bei der forensischen professionellen Analyse von Datenmissbrauch hingegen  ergeben sich in der Regel klare Nachweise für schädliche Aktivitäten in den Audit-Protokollen. Wenn IT-Sicherheitsteams diese Aktivitäten erkennen würden, wären sie sicher in der Lage, sie zu unterbinden oder die Bedrohung zumindest zu verringern. Ohne eine Echtzeitlösung zur Überwachung von Änderungen und automatisieren Alarmierung, ist es äußerst schwierig festzustellen, welche Aktivitäten potenzielle Bedrohungen darstellen und näher untersucht werden müssen.  Ganz gleich, ob Unternehmen Ihre IT-Umgebung lokal, virtuell oder in der Cloud verwalten, Sie benötigen eine Methode, um Richtlinienverletzungen in der gesamten Umgebung zu erkennen und zu korrigieren und somit Lücken bei der IT-Compliance zu schließen.

Fazit:

Unternehmen müssen deutlich mehr Aufwand für Risikoanalysen, Verfahrensdokumentationen, Folgeabschätzungen und IT-Compliance Lösungen einplanen. Wer zukünftig nicht über die geeigneten Prozesse und Systeme zum Schutz sensibler Daten verfügt, wird dafür unter Umständen teuer bezahlen müssen – direkt an die Aufsichtsbehörde und indirekt infolge einer Schädigung der Reputation, des Firmen-und Geschäftswertes und des Vertrauens der Kunden. Die Themen Compliance und Sicherheit gehören bereits in diesem Jahr auf die Agenda eines jeden Unternehmens, damit man in zwei Jahren für die neue Verordnung gerüstet ist. Die neuen gesetzlichen Bestimmungen sind jedoch nicht nur als Herausforderung zu verstehen, sondern bieten Unternehmen auch Chancen: wer sich um die Sicherheit personenbezogener Daten nicht Sorgen muß, kann schneller auf neue Marktentwicklungen reagieren und Innovationen in der Interaktion mit seinen Kunden und Geschäftspartnern vorantreiben ohne dabei Risiken einzugehen. Positive Beispiele findet man bereits heute im eCommerce, wo für es Online-Händler seit Jahren einen verpflichtenden Sicherheitsstandard (PCI DSS) für die Speicherung, Weiterleitung und Entgegennahme von Zahlungsdaten gibt. Gleiches gilt auch für die Finanzindustrie, die ebenfalls dem erwähnten verpflichtenden Sicherheitsstandard unterliegt. Wie in einem unserer letzten Blogs bereits berichtet, wird die HSBC Bank in UK ab Sommer diesen Jahres eine Kombination aus Sprachbiometrie- und Fingerabdruckverfahren für die Authentifizierung beim eBanking für über 15 Millionen Kunden einführen, um den Zugriff auf das eigene Bankkonto sicherer zu machen. (mehr Details finden Sie hier)

Christoph

Christoph Stoica

Regional General Manager DACH

Micro Focus

Innovate Faster with Lower Risk at Micro Focus DevOps Interchange 2016

Mark Levy blogs about the upcoming Micro Focus DevOps Interchange 2016 with over 60 technical sessions focused on how to design, build, test, and deploy applications faster, with less risk in a repeatable, reliable and secure way. DevOps Interchange will be a great opportunity to network, get solutions for your problems and share your ideas and solutions.

Marketing and Innovation

Peter Drucker, the father of modern management said, “Because the purpose of business is to create a customer, the business enterprise has two – and only two – basic functions: marketing and innovation. Marketing and innovation produce results; all the rest are costs.” Marketing is required to understand the needs of the customer and innovation is required to build the product or services that fit those customer needs.

Innovation provides competitive differentiation in the markets where you have to be consistently better and smarter at creating customers than your competitors.  Businesses have been using innovation as a competitive weapon for centuries to create value and differentiation, but only recently have businesses been using software to enable and accelerate business innovation.

Building and delivering software has always been a difficult race against time. I was a software developer for well over 10 years and I was always racing to a date. But over the last several years, that race has entered an even more challenging phase. Several market forces are at work, putting the pressure on the business to deliver business value faster, with better quality, and at a lower cost to the customer.

With the explosion of mobile, there is a newly empowered customer who is forcing the business to deliver quickly to prove out business ideas and innovations. If the business is not responsive enough, low switching costs enables the customer to easily migrate to another competitor.  Additionally, digital competition is everywhere. Firms that use software and the cloud to disrupt established markets can move faster than more traditional businesses because software-based services can evolve faster and offer the opportunity to out-innovate market incumbents.  Epic battles are already being waged across many industries between incumbents and software powered companies.

Finally, the impact of software has dramatically increased across all kinds of business. Today, business innovation is often driven by information technology, which itself demands changes to software.  Software development and delivery has to change or the business will be at risk.

business-operations

Innovate Faster with Lower Risk

Today, every enterprise IT organization is under pressure to simultaneously respond more quickly to enable business innovation, and at the same time provide a stable, secure, compliant and predictable IT environment.  IT must maintain and update the “Enterprise Software Engine” that is running the enterprise, i.e., keeping the lights on, while also providing capacity to support business innovation.  These are not mutually exclusive but actually form an integrated value chain that leverages the traditional systems of record with the customer facing systems of innovation.  These pressures have given rise to Enterprise DevOps as all enterprises must enable the business to innovate faster with lower risk.

Enterprise DevOps is all about building and delivering better quality software, faster and more reliably. IT organizations that implement Enterprise DevOps practices achieve higher IT and organizational performance, spanning both development and operations.  Technical practices such as Continuous Delivery lead to lower levels of deployment pain while speeding up application delivery and improving quality, security, and business outcomes.  The DevOps culture promotes a generative, high trust, performance-oriented culture which enables good information flow, cross-functional collaboration and job satisfaction.  This all leads to higher levels of productivity enabling business innovation with lower risk.

ichange

Micro Focus DevOps Interchange 2016

This very important topic will be the main focus of Micro Focus’s first annual global user conference, DevOps Interchange 2016 , September 18-21, 2016 in Chicago, Ill.  Micro Focus’s own John Delk,  Product Group GM at Micro Focus, will kick off the conference with his “Vision 2020” look at how software development and delivery technology will change and how we must adapt and embrace it. We have also invited Gary Gruver, author of “Leading the transformation – Applying DevOps and Agile principles at scale”, to give a keynote talk about DevOps, where to begin, and how to scale DevOps practices over time in large enterprises.  With over 60 technical sessions, focused on how to design, build, test, and deploy applications faster, with less risk in a repeatable, reliable and secure way, this conference will be a great opportunity to network, get solutions for your problems and share your ideas and solutions.  I hope to see you there!

DevOpsExchange

 

Great technology never gets old – Linux celebrates 25 years!

As Linux celebrates its 25th birthday, there’s plenty of good cheer going round. Derek Britton grabs a slice of cake and looks into a few of the reasons to celebrate.

Happy 25th Birthday Linux

It’s quite hard to imagine a world without Linux in it, but in reality one of the industry de-facto standard operating environments has just reached its quarter century anniversary. This blog looks at the story of how we got here.

In the IT world of 1991, the desktop market was just blossoming, the personal computer was becoming more powerful, intel were breaking Moore’s law with reckless abandon, and Microsoft were starting to get their act together with a brand new exciting development that was to hit the streets a year later, called Windows. The server market was also expanding. An interminable list of organizations including IBM, HP, Sun, TI, Siemens, ICL, Sequent, DEC, SCO, SGI, Olivetti were building proprietary chips, machines and UNIX variants. UNIX had already by that stage enjoyed significant success since making the leap from academia to commerce, and everyone was trying to get a share of the spoils.

Faced with such a crowded market, how did Linux take off?

The phenomenon that was the Linux revolution has been ascribed to a number of factors, including the market desire for choice, technical freedom, and value for money.

The products on the market at the time were entirely proprietary and cost a lot of money. A vendor lock-in and an expensive contract was not all that appealing to CIOs looking to derive value from their investments in what were ironically referred to as  “open systems” (given the proprietary nature of the systems in question).

Linux plugged the gap in the market of true openness. Because the ownership was in the hands of the community, there were no proprietary elements. And the open source nature of the kernel meant that provided you had a piece of suitable hardware, Linux was basically free to use.

takeoff

Technical Altruism

The devisor of Linux, Linux Torvalds, set about improving on other UNIX kernels available at the time, but took the stance that the project should be entirely open. While the idea was his, he merely wanted to invite others to help the idea take root. Indeed Torvalds’ own view of the name was that it sounded too egotistical, and for the first 6 months of the project, the acronym FREAX (an amalgam of “free”, “freak” and “x”) was used as the working title. Only later did he accept that Linux might work better.

Whether such altruism would yield any fruit is easy enough to quantify. Recently, the Linux Foundation released the Linux Kernel Development report stats showing that more than 13,500 developers from 1,300 companies have contributed to the Linux kernel since 2005. Moreover, it isn’t just hobbyist techies in academic labs. The same report indicates that among the top organizations sponsoring Linux kernel development since the last report (which was published in March 2015) included industry giants such as Intel, Red Hat, Samsung, SUSE, IBM, Google, AMD and ARM.

Linux – A Global Player

So much for contributions to the kernel itself, but what about the whole environment, and what about deployments in industry? Did Linux make any headway in the commercial world? Of course the answer is resoundingly affirmative.

Consider just a few of the Linux implementations:

  •  Thousands of major commercial, academic and governmental organizations are now Linux devotees
  • The number of users of Linux is estimated at 86 million, according to SUSE.com
  • Android, the de-facto mobile device environment, is Linux-based
  • The world’s most powerful supercomputers are Linux-based
  • Some of the world’s largest companies, including Amazon and Google, rely heavily on Linux-based servers

Little wonder then that in 2013, Linux overtook the market share of all other proprietary UNIX systems.

But if its open source, who will pay for its future?

A question mark about whether an open source (read: free) environment could be commercial sustainable must also be answered. Arguably the best way to do this might be to look at the health of the organizations who seek to make Linux a commercially viable product. These are the vendors of the various Linux distributions, such as SUSE, Red Hat and Oracle.

Looking at the health of the Linux line of business in each case, we see highly profitable organizations with trend-beating revenue growth in a tough market sector.

Consider all the other players in the sector with their commitment to Linux. IBM has invested millions of dollars in Linux, introducing a new range of Linux-only mainframes branded as LinuxOne. Meanwhile in what might have been seen as unthinkable a few years ago, Windows vendor Microsoft has launched partnerships with Linux vendors including SUSE and Red Hat to provide a collaborative cloud hosting solution.

MaytheOSbewithyou

Now it’s old, we need to get rid of it, right?

Well we’ve heard it all before, haven’t we? It’s getting on a bit so we need to replace it. Like mainframes, like COBOL, like CICS, like Java. These technologies have enjoyed significant anniversaries recently. And in not one single case can you justifiably argue that the age of the technology means it warrants discontinuing. Indeed, most of the ideas might have been formed some time ago, but not unlike Linux, in each case the community and vendors responsible have continued to enhance, improve and augment the technology to keep it relevant, up to date, and viable for the modern era.

In technology, the myth that age implies a lack of value is diametrically incorrect. In IT, age demonstrates value.

No surprises.

At Micro Focus, we love Linux, and we’re not surprised by its success. We’ve long since advocated the use of innovative technology to help support existing value IT investments. Systems and applications that run businesses should be supported, enhanced, innovated, and modernized. At a low cost, without any risk. That’s what Micro Focus has done. Whether it’s with the applications themselves or with the underlying operating environment, building and operating today’s and tomorrow’s digital infrastructure is what we do best.

Indeed, speaking of birthdays, Micro Focus is 40 this year. Enduring value is no stranger to us. Now, who brought the candles?