Are We There Yet?

Digital transformation demands that every IT shop find new ways to move faster and reach their customers with new innovative solutions. Getting new code to market quicker than the competition requires smart tools and intuitive integration to enable faster delivery. Ed Airey explores the new Micro Focus COBOL Analyzer product offering and its capacity to help developers and analysts deliver on this promise.

Every Journey Needs a Map

‘Are we there yet?’ 

A familiar family question heard on most long distance car trips.  A question that’s also difficult to answer, particularly when some drivers, despite better guidance, go off the beaten track.  The increasing mobile use and popularity of satellite navigation (or GPS) technology, has made answering this question a bit easier in recent years. Assuming you listen to the little voice in the box. For those that wait on every wise word and detailed direction, it’s hard to imagine life without GPS. Once you’re used to reliable directions that get you there, every time, why would you take a different path or use a different tool?  The same can be said for application analysis when the right tooling is used.

Actionable Insight
Actionable Insight

The Code Analysis Challenge

Less than 10% of developers use application analysis tools on a daily basis, according to a recent analyst study.   As many as 44% use analysis tools on a project-by-project basis, yet we see a continual need in IT to drive greater efficiency, faster time to market and reduce code re-work.  And that’s exactly how these tools can help—to get you to your destination, quickly and reliably, every time – without getting lost!

It’s Time to Take on Digital Transformation

If you, as a developer, could help your team better understand its core business systems, determine where code change need to occur and reduce the amount of re-work that delays code from going live, wouldn’t you jump at that chance? Or as a business analyst or IT manager, if you could easily onboard new talent to your team, improve collaboration between dev and operations teams or improve IT productivity, would you not take that opportunity?  These are the promises of application analysis tools—helping you better understand your business application and manage code change with confidence.

Impact Analysis made simple
Impact Analysis made simple

Introducing COBOL Analyzer

Today, Micro Focus announces a new offering for its COBOL customers—COBOL Analyzer.  The solution enables developers, analysts and IT management better understand the impact of application change.  Using familiar tools, IT teams can gain immediate insight to where changes need to occur, understand how and where those code change should be made and do so with an understanding of their impact across the entire codebase.

Finally, COBOL Analyzer delivers the integrated toolset to accelerate that change with confidence. Only COBOL Analyzer can help you visualize, understand and act on application code change.  Unlike other offerings, COBOL Analyzer is a solution designed for Micro Focus COBOL applications.  For development teams wondering if the last code package passed QA or made it to production. For teams that are pushed to deliver better code, faster, but are unsure if ‘they’re there yet, code analysis tools are your GPS and trusted toolset to help you reach your destination with greater confidence.

Search your code easily
Search your code easily

Give it a Try

And there’s good news.  You can try this new solution for nothing.  To register for your personal copy, visit the COBOL Analyzer product page.  Also, for those that would like to get started quickly, take a look at the community page for more great materials including a 5-part video playlist, code samples and a getting started tutorial. For organizations with Micro Focus COBOL applications, this is your unique opportunity to gain better insight into your business applications, accelerate code change and reach that digital destination.


Eating your own dog food: Agile Requirements at Micro Focus using Atlas

Atlas is Micro Focus’ Agile requirements management tool. With an intuitive user interface, Atlas enables users to gather concepts, define requirements and collaborate with a minimal learning curve. Innovative tracking allows stakeholders to see at a glance how requirements are progressing based on live data from delivery tools such as Micro Focus Agile, Rally and VersionOne.

Throughout 2016 Micro Focus development teams have been using Atlas to deliver better software faster. In this blog Ed Benton looks at how using Atlas has benefited its users and Atlas support and development team too.

So what is Atlas?

Micro Focus Development teams have been using the Atlas Planning and Tracking Suite to more effectively gather, define, discuss, plan and track their Software Development requirements. Atlas has empowered teams working on Enterprise software such as Reflection, InfoConnect Desktop and RM/COBOL to work more effectively and deliver better software faster that meets customers’ business requirements.

Business analysts use Atlas to quickly define well written requirements, with a user interface that “just works” and doesn’t take time to figure out. Managers use Atlas to plan releases effortlessly with team capacity management and a built in discussion feature to gather the feedback of other stakeholders. Integration with Silk Central enables development managers and other stakeholders to review test results directly within Atlas. Decision makers have access to the live and accurate data they need all within one elegant and intuitive user interface.


How does Atlas help?

Requirements are sent directly to developers’ preferred delivery tools. Developers update their backlogs in Micro Focus StarTeam Agile, Rally and VersionOne and the updated progress is reflected instantly in Atlas. Product Managers are able to review delivery status in Atlas based on live data from Agile delivery tools without needing to learn or obtain access to the delivery tool itself. These innovations and more have helped teams at Micro Focus deliver better software faster.

As Phillip Miller,  Director of COBOL Development puts it:

‘In an environment where multiple development teams are often involved in delivering complex features the evolution of a high level idea into a requirement that’s understood and agreed by multiple teams has always been challenging. Atlas, with its whiteboards, versioning and discussion features, has allowed us to radically improve our approach to requirements capture and analysis.

Being able to more effectively collate, discuss, track, version and collectively review the evolution of an idea into a requirement in a single tool has provided benefit to managers and developers alike.’

Phillip Miller Director of Development (COBOL)

Phillip Miller Director
of Development (COBOL)

Supporting internal customers benefits our external customers

Our internal Atlas instance is a cross-functional project supported by technical employees from Support, Quality Assurance, Project Management and all levels of development. The Atlas team meet regularly to discuss how to best support the 500 active users across Micro Focus. Issues and enhancements are researched, discussed, tested and implemented by an Agile DevOps team. This keeps us highly responsive to the needs identified by our highly engaged user base. Real user feedback from real AppDev work is being used to continually improve Atlas. Agile teams within Micro Focus working on Reflection, InfoConnect Desktop and RM/COBOL have been using Atlas to gather and define requirements, discuss and plan their releases and track their delivery. They rely on Atlas in this effort and their feedback enables us to enhance all areas of Atlas, resulting in a greatly improved “battle hardened” product for our customers.

As Director of Atlas Development Mark Kulak puts it:

‘Atlas internal usage has been invaluable for the Engineering and Product Management teams. As more users come online, we have gathered an appreciation for how diverse our user community really is.

Feedback from many teams using different planning and tracking processes has been invaluable to rounding out Atlas usability and features. While internal feedback aligns with external customer requests, the level of openness and ability to quickly iterate when dealing with internal teams makes a significant difference. It allows us to ask probing questions and work together to identify solutions.’

Mark Kulak Director of Development (Atlas)
Mark Kulak Director
of Development (Atlas)

Putting ourselves in the customer’s shoes

Supporting a large, geographically distributed Atlas user base has given us first hand experience of how Atlas sysadmins spend their day and the challenges they face. This has lead to multiple refinements in Atlas which make it as easy to administrate as it is to use. At Micro Focus support we’re constantly in contact with our customers. This helps us develop a deep understanding of our customers goals and challenges and also a high level awareness of how they use our products to work more effectively.

Working as an Atlas systems administrator for our internal users has helped me develop a greater understanding of the needs of our customers, particularly the systems administrators who manage Atlas instances. This helps us support external customers more effectively anticipating their needs as we work with the product in the exact same way.

Everything we learn from supporting the internal Atlas server is used by development to make Atlas more effective, intuitive and robust for all users, from the sysadmins managing the instance to the management stakeholders looking for high quality progress overviews. I’ve seen lessons learned from internal Atlas usage drive real improvements in the product for our customers.

All of this feedback has been built into the new Atlas 4.0 release – please find out what’s new on the website and take a trial to see how good it is for yourself!







Ed Benton

Senior Support Engineer (Atlas & StarTeam / Hub)

Die Digitalisierung macht uns verwundbar – brauchen wir ein digitales Immunsystem?

Vom weltweiten Angriff auf DSL-Router am letzten November-Wochenende waren auch Hundertausende deutsche Internetnutzer betroffen. Die Angreifer gelangen über eine Sicherheitslücke der Wartungsprotolle TR-069 und TR-064 auf die Router der Telekom-Kunden. Das Bundesministerium für Sicherheit in der Informationstechnik (BSI) sprach von einem „globalen Hacker-Angriff“, bei dem die Telekom nur eins von vielen Ziele gewesen sei. Und wenn auch mittlerweile die Telekom-Router immun sind gegen diese Angriff, so zeigt Vorfall, wie wehrlos Unternehmen und Institutionen noch immer gegen Angriffe aus dem Netz sind. Lesen Sie im Blog, welche aufeinander abgestimmten Maßnahmen notwendig sind, für die Erkennung und Abwehr solcher Cyberangriffe.

Die Lage bleibt angespannt – eine solche Äußerung bedeutet nie etwas Gutes und schon gar nicht, wenn offizielle Stellen der Regierung sie verlauten lassen. Politiker und Sicherheitsexperten benutzen eine solche Ausdrucksweise oft im Zusammenhang abstrakter Gefahren, um die Bevölkerung auf wachsende und sich verändernde Bedrohungen hinzuweisen. Anfang November benutzte das Bundesamtes für Sicherheit  und Informationstechnik (BSI) genau diese Formulierung zur Beurteilung der IT-Sicherheitslage in Deutschland für das laufende Jahr. Die Formulierung, die wie ein mahnender Zeigefinger wirkt, diente dabei vor allem dazu, potenzielle Gefahren nicht naiv zu unterschätzen und entsprechende Vorsorgemaßnahmen präventiv zu treffen sowie das Sicherheitsbewusstsein eines jeden Einzelnen zu sensibilisieren und zu schärfen. Denn gerade in der heutigen Zeit, in der das abstrakte Gefährdungslagebild professionell motivierter Cyber-Kriminalität bedenklich ist, weiß man, dass aufgrund der unterschiedlichsten Methodik solcher Cyber-Angriffe, die Angreifer nur schwer aufzuspüren und ihre Taten kaum zu verhindern sind. Der aktuelle Bericht zur Lage der IT-Sicherheit in Deutschland zeigt, dass in 2016 insgesamt eine zunehmende Professionalisierung der Angreifer und ihrer Angriffsmethoden festgestellt wurde und die Gefährdungslage angespannt bleibt. So ist die Zahl bekannter Schadprogrammvarianten dieses Jahr weiter gestiegen und lag im August 2016 bei mehr als 560 Millionen. Gleichzeitig verlieren klassische bisherige Abwehrmaßnahmen weiter an Wirksamkeit, weil die Schädlinge oft durch die – meist unbeabsichtigte und unbewußte – Mitwirkung von Insidern in die Netzwerke gelangen und somit klassische Schutzmaßnahmen wie Firewalls umgangen werden. Weiterhin wurde für 2016 eine deutliche Zunahme an Sicherheitslücken und Schwachstellen in Soft- und Hardware gegenüber dem Vorjahr konstatiert. Besonders betroffen waren dabei Betriebssysteme wie Apples macOS oder Microsoft Windows 7 aber auch Softwareprodukte wie  Adobe Reader, Adobe Flash sowie Webbrowser. Eine besorgniserregende Entwicklung, denn gerade Schwachstellen in Hard- und Software bieten ein leichtes Einfallstor in Unternehmensnetze und können von Angreifern leicht ausgenutzt werden.


Auch die Bedrohung durch sogenannte „Ransomware“ hat sich deutlich verschärft – Krankenhäuser, Unternehmen aber auch Behörden sind von diesen Angriffen betroffen, bei denen informations-technische  Systeme lahmgelegt werden um „Lösegeld“ zu erpressen. Zu den häufigsten Infektionsvektoren für Ransomware gehören Distributed-Denial-of-Service-Angriffe (DDoS) oder Drive-by-Exploits. Sogenannte DDoS-Angriffe sind im Grunde nichts Neues, sie basieren auf einem relativ simplen Prinzip, dass massenhaft sinnlose Anfragen an Server geschickt werden, so daß dieser überlastet und legitime Anfragen nicht annehmen kann. Angreifer benutzen für diese Angriffe in den seltensten Fällen ihre eigene Infrastruktur, sondern vielmehr gehackte Computer und IoT, die zu Botnetzen zusammengefasst werden. Offene Telnet-Ports ohne Authentifizierung, Standard-Nutzernamen, banalste Sicherheitslücken und vor allem keine Security-Updates lassen IoT zur leichten Beute für Cyberkriminelle werden. Die meisten IoT-Geräte sind in Prozessor- und Storage-Kapazität limitiert – derzeitige Security-Modelle, wie  automatische Installation von Updates, das Einspielen von Security-Patches, das Installieren und Aktualisieren von Antiviren-Software und die Konfiguration von Host-basierten Firewalls, lassen sich daher nicht einfach 1:1 umsetzen. Ausnutzbar werden diese Schwachstellen, weil die fortschreitende Digitalisierung zu einer Vielzahl komplexer Kommunikationsverbindungen geführt hat. Die Schutzmechanismen vernetzter Systeme müssen also darauf ausgerichtet sein, dass ein erfolgreicher Angriff auf eine einzelne, verwundbare Komponente nicht sofort Auswirkungen auf das gesamte System hat.

Doch auch wenn Realität und Anspruch in Bezug auf Sicherheit und Datenschutz vielleicht momentan oft noch diametral auseinandergehen, muss die Entwicklung von künstlicher Intelligenz und Verschmelzung von IT und Industrie weiter vorangetrieben werden – zu groß sind die sich hieraus bietenden wirtschaftlichen und gesellschaftlichen Potenziale. Die Digitalisierung ist eine Schlüsselinnovation, die alle Wirtschaftsbereiche verändert. Wir können uns vor ihr weder abschotten noch sie abwählen. Gerade der starke und innovative deutsche Mittelstand mit zahlreichen Weltmarktführern muss die Entwicklung neuer digitaler Geschäftsmodelle und –prozesse vorantreiben, andere Denkansätze verfolgen um Innovationen zu schaffen – selbst wenn die hundertprozentige und absolute Sicherheit nicht gewährleistet werden kann. Wenn wir heute auf die Erfolgsgeschichte des Automobils zurückblicken, so war auch dies – wie heute die Digitalisierung oder Industrie 4.0 – ein disruptive Technologie, die im Frühstadium längst nicht über die für uns heute selbstverständlichen Sicherheitsstandards verfügte. Die ersten Autos hatten kein Dach, geschweige denn einen Sicherheitsgurt oder sonst irgendwelche Vorrichtungen wie ABS, Airbags oder Bremsassistenten, um den Fahrer zu schützen. Doch auch wenn all diese Features heute Standards in Autos sind – absolute Sicherheit kann der Automobilhersteller nicht garantieren. Sicherheit kann deshalb nur relative Sicherheit bedeuten. Die Automobilindustrie hat es verstanden, das  Paradigma  „relativer“ Sicherheit mit einem sehr hohen Sicherheitsgrad  als  nachprüfbare  Produkteigenschaft (TÜV)  zu  etablieren.

Analog hierzu wird der Informationssicherheit im Zuge der Digitalisierung und der damit einhergehenden Verwundbarkeit von Systemen eine Schlüsselrolle  zuteil. Umfassende Sicherheitskonzepte können hierbei wie eine Art Immunsystem durch Prävention, Detektion und Reaktion die Gefahrenpotenziale von Cyberangriffen abmildern.  Hierfür sind neben gestaffelten und aufeinander abgestimmten Maßnahmen , auch die Einschätzung der Gefahrenlage sowie die Entwicklung neuer Strategien für die Erkennung und Abwehr von Cyberangriffen notwendig.

Prävention schützt

So wie ein intaktes Immunsystem beim Menschen bösartige Zellen erkennt und an einer Ausbreitung hindert, verhindern starke Authentifizierungsverfahren unerwünschte Zugriffe bereits an der Eingangstür und bieten wirksamen Schutz gegen Identitätsdiebstahl. Risikobasierte Zugriffskontrollen berücksichtigen eine Vielzahl von Faktoren um für jedes System und jeden Zugriff das angemessene Sicherheitsniveau zu erreichen – so erhält das Herzstück des Unternehmens den größtmöglichen Schutz, während der Zugriff auf weniger kritische Komponenten nicht durch unangemessene Sicherheitsmaßnahmen eingeschränkt wird.

Detektion – Risiken systematisch und in Echtzeit aufspüren

Auch trotz bester Vorsorge, kann es dennoch passieren, dass man sich mit Viren und Schädlingen infiziert. Aufgabe des Immunsystems ist es dann, schnellstmöglich Angriffe und Veränderungen zu entdecken und Gegenmaßnahmen einzuleiten. Ähnlich verhält es sich, sobald Malware in Systeme eingedrungen ist. Entscheidend wird sein, wie schnell ein Unternehmen den Angriff entdeckt und ob man in der Lage ist, adäquat drauf zu reagieren. Durch Einsatz von Security Information & Event Management-Technologien (SIEM) wird eine Grundkonfiguration für die normalen Aktivitätsmuster in der IT-Umgebung definiert. Auf diese Weise können Auffälligkeiten anhand einer Echtzeit-Sicherheitsanalyse identifiziert werden, ohne genau zu wissen, wonach eigentlich gesucht wird. Change Monitoring Systeme stellen eine sinnvolle Ergänzung zu SIEM-Lösungen dar – sie bieten eine permanente Überwachung geschäftskritischer Dateien und Systeme und liefern bei unbefugten Änderungen aussagekräftige Alarmmeldungen. Dies ermöglicht kurze Reaktionszeiten und reduziert somit das Risiko eines folgenschweren Datenmissbrauchs erheblich.

Reaktion bedeutet Sicherheitssysteme schnell & dynamisch anzupassen

Sicherheit erfordert aber nicht nur eine schnelle Reaktion im Angriffsfall, sondern auch eine schnelle Anpassung der Sicherheitsarchitektur an Veränderungen. Agile Software-Entwicklung, automatisiertes Release Management, standardisierte Cloud-Services – viele Trends wirken als Katalysator für immer kürzere Innovationszyklen. Das „Immunsystem“ der IT muß sich ebenso schnell anpassen – integriert, automatisiert, intelligent und dynamisch sind daher zentrale Attribute einer modernen Sicherheitsarchitektur.


Christoph Stoica

Regional General Manager DACH

Micro Focus

Linux – the new workload workhorse

Linux continues to gain in popularity, and there are more deployments each year, even in the mainframe world. What’s driving all the interest and, frankly, all the workload? We deployed Derek Britton to find out.

Reports suggest that there continues to be a significant uptick in the number of deployments on to Linux servers worldwide. In November 16’s IBM Systems Magazine article “Why more z Systems customer are running Linux”, for example, we are told that “nearly 50 percent of z Systems clients are using Linux”. We also know that Linux overtook other UNIX systems in terms of market share as far back as 2013 (source: Linux Foundation).

Meanwhile, the 11th annual BMC Mainframe Market survey (source: BMC) reports that 67% of mainframe organizations have witnessed increasing capacity this year, with the percentage respondents using Linux in production rising to 52%.

Now, across the broader market, what incarnation of Linux might be chosen is a topic all of its own. Data centers running Enterprise versions of RedHat, SUSE or Oracle variants is an option, as is using a Linux-based Cloud deployment, as would be the ground-breaking LinuxONE technology or the new Linux on Power platform from IBM, or indeed running a Linux partition on their mainframe. The flexibility, choice and power is certainly there to leverage.


Why Now?

One of the obvious questions this throws up is what sort of workload is being deployed on to Linux? Or, put another way, what is driving organizations and their IT teams to choose Linux (or any other modern environment for that matter) as a production environment? The aforementioned IBM Systems Magazine article confirmed that IBM has (Linux) clients “doing payments, payroll, mobile banking … critical applications”. It goes without saying that some production workload is much more at home on z/OS, but IBM sensibly provides the options the market is clearly looking for in the digital age.

And tempting as it might be to talk about all the benefits of Linux, open source and other recent innovations from the vendors, this isn’t what drives change. Businesses drive IT innovation – changes in circumstances are behind many of the smartest IT decisions. Necessity is the mother of invention, or in this case innovation. So what are those needs?

Accelerating Market Footprint

One of our clients looked at branching out into new territories. Their core systems needed to be replicated across new data centers in each country, a fairly typical situation. However, the uniqueness and scale of the operation made matters difficult for provisioning IT operations as quickly as the business plan wanted. They were looking for a faster way to have tried-and-trusted IT systems up and running, supporting their new regional centers.

Smart Data Compliance

A financial services client was also looking at international expansion. However, due to data privacy laws in the new region, they were unable to manage the new operation from their head office. Instead, they needed to establish the right – low-scale, yet compatible – IT footprint in the new region. The question therefore was what viable options could replicate existing mainframe business functionality at a lower scale?


Reaching New Clients

A very successful mainframe applications provider with an aggressive growth strategy was looking for further market opportunity. They identified that their market penetration and growth plans precluded them from establishing sufficient growth with their existing model. One important option to them was to investigate reaching clients in their market who were currently not using their prescribed deployment platform. Simply put, they needed to explore more platform options to support market growth.

Getting Fit for Purpose

New demands of fresh, critical workload create questions about priority and bandwidth. Some clients we know have adopted a headlong approach into big data and in-line analytics. Their view is there is no place better than z/OS to run these core operations. The question this creates is how to provision the necessary headroom without incurring unplanned increases. Of course, there’s always a commercial answer, but oftentimes the capacity available on Linux is simply waiting to be leveraged. Sometimes, some traditional z/OS workload might not all be equally important – some of it might be a historical circumstance. It then becomes a question of choices. Moving standalone priority B workload around might be viable and support higher priority z/OS projects.

Flexibility is Key…

The above scenarios represent real situations faced by large enterprises. What do all these drivers have in common? Probably the simplest way to label it is the issue of flexibility. Responding to change, rapidly, is driving IT innovation. Finding smart ways to deliver bomb-proof systems – core applications that already add value, already support the business – into new channels to support, quickly, going into a new territory, splitting data centers, reaching new clients, sometimes where the traditional platform isn’t appropriate for the model, is the demand. Linux makes sense as a viable, enterprise-scale solution in a growing range of cases.

…and so is the application!

For so many of the world’s largest IT organizations applications literally mean business. They keep the operations ticking over, and without them the organization would be unable to function. Many of those systems have been relied upon over years, built on the solid foundation of the COBOL language. COBOL’s continued evolution in its 6th decade, and Micro Focus unrivalled support of COBOL across dozens of leading platforms mean when bullet-proof core systems need contemporary levels of flexibility, COBOL and Linux are the natural, low-risk option. It’s no wonder that Micro Focus sees more and more Linux deployments of COBOL applications than ever.


Is Linux alone here? Not at all. One could easily argue that other UNIX variants and Windows are viable production systems for many application workloads. That’s not the argument here – platform viability is the choice of the customer. What’s important is that organizations need to be able to make smart decisions to support rapid business change. Advancements in technology such as Linux, alongside the power and portability of COBOL, help them do just that.

Cyber Monday

Big retailers have been planning ahead for up to 18 months for their share of approximately 2.6 billion dollars of revenue. Cyber Monday started in 2005 by has become one of the biggest online traffic days of the year, Simon Puleo takes a look at the list of how some of our biggest customers have prepared.

‘Twas the night before Cyber Monday and all through the house

everyone was using touchscreens gone was the mouse.

While consumers checked their wish lists with care

in hopes that great savings soon would be there.

The children were watching screens in their beds

while visions of Pikachu danced in their heads.

And Mamma in her robe and I in my Cub’s hat

reviewed our bank accounts and decided that was that!’

Cyber Monday started in 2005 by has become one of the biggest online traffic days of the year.  Black Friday may have started as early as 1951 and between the two shopping holidays generate over $70 BN!  Let’s take a look at the list of how some of our biggest customers have prepared:

1.)    Performance testing.  Did you know that our customers typically start performance testing for cyber-Monday in February, why would they start so early?  Customers are testing more than just peak load, they are testing that sites will render correctly across multiple configurations, bandwidths, devices, and sometimes in multiple regions of the world.  The goals of ecommerce is to enable as many shoppers as possible that includes my Dad on his iPad 2 on a rural carrier and my daughter on her Chromebook in an urban area.   Multiply that by thousands of users and you can see that unfortunately, retailers can’t hire enough of my relatives to help them out. What they do is use a combination of synthetic monitors and virtual users to simulate and assess how a website will perform when 10,000 of users are shopping at the same time.


2.)    New Feature Testing.  Whether you consciously think about it or not you expect and gravitate towards websites that have the latest feature set and best user experience.  What does that mean?  Listing a photo and description is bare bones the best commerce websites not only have reviews, videos, links to social media and wish lists they may actually be responsive to your shopping habits, regional weather and personal interests.  They use big data sets to preclude what you are browsing for and offer you targeted deals too good to pass up!  While that is exciting, it also means that the complexity of code both rendering the browser and behind the scenes has grown exponentially over the years.  Ensuring that new features perform and old code works with legacy systems as well renders correctly over multiple devices is what functional and regression testing is all about.  While a team of testers may track multiple code changes they lean towards automation to ensure that code works on target configurations.

3.)    Offering Federated Access Management What? you’re thinking, user-login was solved ages ago. For sophisticated online retailers using Facebook, Google, Yahoo!, Twitter, LinkedIn or other credentials to gain access is first a method to gain trust, second opens up the potential opportunity for more customers and finally a road to valuable personal data.  Regardless of which advantage a retailer may prioritize developing the ability to enable millions of Facebook users to easily login and check-out with a credit-card equates to new customers and a leg up over legacy competitors.  And, for added amount of trust and security retailers can couple multi-factor authentication at key points of the conversion process.   Simple user login and password for each shopping site is quickly becoming a relic of the past as users opt for convenience over management of many user names and passwords.


These are some of the top methods and solutions that big retailers have implemented for 2016.  The best online commerce professionals know what they are up against and what is at stake for example:

  • In 2014 there were over 18,000 different Android devices on the market according to OpenSignal, that is an overwhelming amount of devices to ensure.
  • At a minimum retailers lose $5600 per minute their websites are down
  • The market is huge a recent estimate put the global amount of digital buyers at 1.6 Billion, that is nearly 1/5 of the world’s population.  Converting even .1% of that number is 160,000 users!
  • Users are fickle and will leave a website if delayed just a few seconds
  • Last year Cyber Monday accounted for $3 billion in revenue, this year we expect even more!

Retailers like Mueller in Germany realize that no “downtime” is critical to keeping both the online and virtual shelving stocked.  Their holistic approach to managing software testing and performance helps them implement new features while keeping existing systems up and running.   It is never too late to get started for this year or preparing for next, consider how Micro Focus has helped major US and European Online Retailers with performance testing, automated functional and regression testing, access management and advanced authentication.

DevOps Enterprise Summit 2016: Leading Change

Mark Levy reports back from #DOES16 in San Francisco – is this is the year that DevOps crosses the chasm? What did he find out from the experts like Gene Kim? Read on to find out the answers and more in this fascinating blog….

Last week I attended the DevOps Enterprise Summit (#DOES16) in San Francisco which brought together over 1300 IT professionals to learn and discuss with their peers the practices and patterns of high performance IT for large complex environments. One of the first things I noticed was that the overall structure of the event was different from your standard IT event.  All the sessions over the three-day event followed an “Experience Report” format. Each session was only 30 minutes in length and each speaker followed the same specific pattern, which enabled current DevOps practitioners to share what they did, what happened, and what they learned. The event also had workshops leveraging the “Lean Coffee” format where participants gathered, built an agenda, and began discussing DevOps topics that were pertinent to their particular environment.  In my opinion, these session formats made the overall conference exciting and fast paced.

Enterprise DevOps Crosses the Chasm

One question remained a focus throughout the event: “Is this the year that Enterprise DevOps crosses the chasm?” #DOES16 seems to believe so. The main theme for this year’s event was “Leading Change”. Gene Kim opened the event by highlighting results of the latest DevOps survey which found IT organizations that leveraged DevOps practices were able to deliver business value faster, with better quality, more securely, and they had more fun doing it!  With over four years of survey data, we now know that these high performers are massively out performing their peers. The focus of #DOES16 was to provide a forum where current DevOps practitioners from large IT organizations were able to share their experience with others who are just starting their journey. DevOps transformation stories from large enterprise companies such as Allstate, American Airlines, Capital One, Target, Walmart, and Nationwide proved that DevOps is not just reserved for the start-ups in Silicon Valley.



There were also several new books focused on DevOps practices launched at #DOES16.  Gene Kim, Jez Humble, Patrick Dubois, and John Willis collaborated to create the “DevOps Handbook”, and renowned DevOps thought leader and author Gary Gruver released his new book “Starting and Scaling DevOps in the Enterprise”. Both books focus on how large enterprises can gain better business outcomes by implementing DevOps practices at scale and in my opinion are must reads for DevOps practitioners as well as senior management.

DevOps stickies


It’s a Journey from “Aha to Ka-Ching”

DevOps is not “something you do” but a state you continuously move towards by doing other things. it’s a journey of continuous improvement. During the event, several companies highlighted that it’s a journey of experimentation, accepting failure along the way, while also incrementally improving the way they build and deliver software. There were some excellent case study presentations. For example, Heather Mickman, Sr. Director of Technology Services at Target, has presented three years in a row and showed how a grassroots, bottoms up DevOps transformation at Target has enabled the company to enlist the support of executive management. Target was able to scale software deployments from 2-3 per day in 2015 to 90 per day twelve months later.  The Target team achieved this by aligning product teams with business capabilities, removing friction points, and making everything self-service. What’s next for Target?  Take everything to the cloud.  The journey continues.

If you want to go far, go together

Leading change was the main theme of the event and was highlighted in many different ways. For example, Microsoft discussed their new vision of enabling any engineer to contribute to any product or service at Microsoft, thus leading the change to a single engineering system. Engineers follow an “engineering north star” with the objective that dev can move to another team and already know how to work. Leading change does not just focus on new innovation. DevOps is also about innovating with your “Core”.  Walmart’s mainframe team took the lead and created a Web caching service at scale that distributed teams could leverage. While both examples show how technology is being used to move forward together, there has to be a culture that supports this type of high performance. Many sessions focused on how to build a generative culture and the leadership that is required to change people and processes.


Creating a culture that supports a successful DevOps transformation is such an important topic, that I have invited Gene Kim to come on our next Micro Focus DevOps Drive-in, December 1, 2016 at  9am PST to discuss the research he conducted while developing his latest book, “The DevOps Handbook”, and techniques to build a culture of continuous experimentation and learning. Hope to see you there!

Passwortkrieg – Wer kämpft eigentlich gegen wen?

Das Jahr 2016 brachte spektakuläre Datendiebstähle unfassbarer Dimension ans Tageslicht – Dropbox, Yahoo aber auch staatliche Institution wie RUAG wurden u.a. Opfer der sich immer stärker ausbreitenden professionellen Cyberangriffe. Hinzukommt eine wachsende Unzufriedenheit der Mitarbeiter bezüglich der Zugriffsbereitstellung, was zu einem Wildwuchs bei Zugriffsrechten führt. Im Blog erfahren Sie, wie man diesem Dilemma entkommen kann.

Im Jahr 2016 hat das Thema Datenklau hat eine bislang noch nie da gewesene Dimension erreicht. Datendiebstähle werden zum Alltag, Ransomware zur Norm und wenn ein Onlineportal Millionen Zugangsdaten verliert, überrascht das auch niemanden mehr. 68 Millionen geknackte Nutzerkonten beim Cloudspeicher-Dienst Dropbox, 120.000 gestohlene Kundenzugangsdaten bei der deutschen Telekom und der jüngste  Rekordhack von einer halben Milliarde Nutzerdaten beim Internetdienst Yahoo, dem einstigen Vorzeigeunternehmen der New Economy –  die Liste lässt sich beliebig weiter fortsetzen. Zwischen all diesen Meldungen lagen noch nicht einmal 8 Wochen und man wird das Gefühl nicht los, dass sich Informationen und Berichte über Datendiebstähle sowohl hinsichtlich der Anzahl aber vor allem auch in Bezug auf die Zahl der geknackten Nutzerkonten inflationär mehren. Auffällig ist, dass die erwähnten Datendiebstähle allesamt auf Netzwerkangriffe zurückgehen, die bereits vor 4, beziehungsweise im Falle von Yahoo, vor 2  Jahren erfolgten und die Unternehmen seinerzeit die Auswirkungen dieser initialen Angriffe in der Öffentlichkeit eher herunterspielten. Heute zeigt sich mit dem Auftauchen der seinerzeit beim Angriff erbeuteten eMail Adressen und Passwörter im erst das wahre Ausmaß des Schadens.

Ursächlich für die massiven Fälle des Datendiebstahls waren in den genannten Fällen jeweils geknackte Passwörter privater LinkedIn Accounts. Und trotz steigender Bedrohungslage, gibt es immer noch genügend Mitarbeiter, die allem Anschein zur Folge naiv genug sind und das gleiche, privat genutzte  Passwort auch beruflich  verwenden und somit den Hackern Zugang  zu Unternehmensnetzwerken ermöglichen.  Erstaunlich ist auch, dass sich die öffentliche Empörung der jetzt ans Licht gekommenen, unvorstellbar großen Datendiebstähle  sehr in Grenzen hielt, denn entsprechende Schlagzeilen füllten gerade mal einen Tag lang die Gazetten. Anscheinend zählt der Verlust vertraulicher Daten und Passwörter, bei dem Unzählige schon ihr digitales Leben verloren – zum Glück nur das digitale – schon zur Tagesordnung. Doch nicht nur Unternehmen sind Opfer wachsender Cyberkriminalität, auch staatliche Institutionen geraten zunehmend  ins Visier der Hacker. Der staatseigene Schweizer Rüstungsbetrieb RUAG  und das Schweizer Verteidigungsministerium sind zum Ziel von Hackern geworden und zumindest einer dieser Angriffe war erfolgreich. Laut dem Bericht der Melde- und Analysestelle Informationssicherung (Melani) konnte der Hackerangriff auf das Schweizer Verteidigungsministerium Anfang 2016 noch rechtzeitig entdeckt werden. Der Angriff auf RUAG, begann im Dezember 2014 begann und blieb über ein Jahr lang unentdeckt. Mithilfe eines Schadprogramms gelang es den Angreifern, durch Watering-Hole-Angriffe über präparierte Webseiten eine Erstinfektion zu erreichen. Dies führte dazu, dass die Angreifer eine Schwachstelle im Browser eines Mitarbeiters ausnutzen und Schadsoftware installieren konnten. Im Nachgang kam es auf dem infizierten System zu einer Erweiterung der Benutzerprivilegien und über mehrere Stufen schließlich zur vollständigen Kontrolle über das Active Directory im Unternehmensnetz. Damit erlangten die Angreifer höchstmögliche Benutzerrechte.

Auch das deutsche Bundesamt für Sicherheit in der Informationstechnik (BSI) beklagt jeden Tag mehr als 20 hochspezialisierte Angriffe auf das Regierungsnetz – eine alarmierende Zahl.  Dort spricht man bereits von elektronischem Flächen-Bombardement, Streuverlusten und von Spezialeinheiten zur Bekämpfung  und bedient sich dabei des Vokabulars, welches man eigentlich nur aus dem Verteidigungsministerium kennt.  Der Feind lauert überall und sieht es bei seinen Beutezügen vor allem auf eines ab:

Er sucht die größte Schwachstelle, die ihm ein Eindringen in Unternehmensnetzwerke möglichst unbemerkt erlaubt. Passwörter und Zugangsdaten scheinen dabei das schwächste Glied der Kette zu sein, denn dreiviertel aller Cyberattacken auf Unternehmen sind laut einer neuen Deloitte Studie auf gestohlene oder schwache Passwörter zurückzuführen.

Doch neben dem Kampf gegen immer ausgetüftelterer Cyberattacken und professionelle Hacker  sieht sich die IT-Abteilung noch einer zweiten Front im Passwortkrieg gegenüber – der Front der unzufriedenen Mitarbeiter im eigenen Unternehmen. Denn als Reaktion auf die wachsende Cyberkriminalität mit immer subtileren Angriffsmethoden werden gleichzeitig auch immer restriktivere Maßnahmen bei der Passwortvergabe eingeführt. Keine Namen oder einfache Worte, sondern Zahlen, Buchstaben, Groß- und Kleinschreibung sowie Sonderzeichen sind zu verwenden, mindestens 10 Stellen sollten es sein und möglichst nach 14 Tagen zu erneuern und auf gar keinen Fall ein und das gleiche Passwort für alles zu benutzen  – um hier nur einige der häufigsten Regeln für die Passwortvergabe zu nennen. Schon heute besitzt ein User durchschnittlich 13 Passwörter und greift auf 6 – 10 Applikationen und Webseiten mit Logins pro Tag zu. Glaubt man der Studie von Deloitte wird sich die Zahl der Online Accounts pro Nutzer auf 200 bis zum Jahre 2020 erhöhen. Kein Mensch kann sich mehr all die benötigten verschiedenen und komplizierten Passwörter merken, was unweigerlich zur Folge hat, dass Haftnotizen als Gedankenstützen an Displays kleben oder oftmals das gleiche, meist einfache Passwort für mehrere Logins verwendet wird. Zudem führen diese Passwort-Policies in Unternehmen zunehmend auch zu Frust bei den Angestellten. So stellte das Ponemon-Institut in der jüngst veröffentlichen Umfrage für Identity Governance & Access Management fest, dass bei 38 % der befragten Unternehmen, Mitarbeiter über den aktuellen Prozess für die Zugriffsverwaltung verärgert sind. Und selbst wenn die Benutzer allen strikten Vorgaben bei der Passworterstellung folgen würden und tatsächlich starke und unterschiedliche Passwörter benutzten würden, diese immer noch nicht sicher genug wären. Mittels Social Engineering – auch soziale Manipulation genannt – nutzen Hacker menschliche Schwachstellen aus, um durch gezielte Beeinflussung an vertrauliche Informationen zu gelangen (siehe Blog: Tausche Passwort gegen Schokolade)


Sicherheit muss praktikabel sein

Also, was können Unternehmen tun, um sich vor Identitätsdiebstahl zu schützen? Identitätsbasierte Sicherheitslösungen, wie beispielweise Multi-Faktor-Authentifizierung  können der Schlüssel sein, um sicheren Zugriff auf Anwendungen und Systeme, die Mitarbeiter für Ihr tägliches Arbeiten benötigen, zu gewährleisten. Doch wirklich sicherer wird es nur, wenn es auch einfach ist. Denn während die Erhöhung der Sicherheit das primäre Ziel jeder Authentifizierungslösung sein sollte, ist Benutzerfreundlichkeit nicht minder wichtig für den Erfolg bei Durchsetzung im Unternehmen. Sind die Prozesse für Benutzer zu kompliziert und unbequem, führt dies dazu, dass Anwender Mittel und Wege finden, diese zu umgehen. Das wiederum wirkt sich negativ sowohl auf die Produktivität als auch auf die Sicherheit aus. Wichtig ist es, ein angemessenes Gleichgewicht zwischen den Anforderungen an die betriebliche Handlungsfähigkeit und Sicherheit zu finden. Die Planung eines für sie passendenden Multi-Faktor-Authentifizierungsverfahren sollten Unternehmen jedoch nicht nur an den aktuellen Status Quo Ihrer Anforderungen ausrichten, der Blick sollte sich auch auf zukünftige Bedürfnisse richten. Darüber hinaus ist es wichtig, das die  Zugriffe dynamisch evaluiert und die Sicherheit für den Login adaptiert werden.  Wie Sie Ihr Unternehmen vor Cyberangriffen schützen können zeigen wir auf der  #DiscoverMF Tour, die am 7. Dezember 2016 in Zürich beginnt.

Thomas Hofmann

Systems Engineer – Micro Focus Switzerland


Defining the future of enterprise applications

It’s nearly that time of year again. Yes, the holidays and colder weather (for those of us in the Boston area) are both fast approaching, but it’s also nearly time to attend one of the most electric and engaging events in the open software community – SUSECon 2016. Ed Airey takes a closer look at this upcoming event, its touchpoints with the enterprise community and the continued interest in Linux as a platform for future innovation – all ahead of next week’s activities in Washington, D.C.

Lead with Linux

If you’re a developer, you’re always watching out for the latest technology that delivers new tools, new features and that innovative capability that’s sure to ‘wow’ your customers.  Linux has increasingly become that target technology and platform of choice for new software development, pilot projects and company innovation. Why Linux?  Simply put, it offers the choice and open flexibility that developer demand along with the cost savings that the business desires.

With countless Linux distribution choices on the market, this platform provides vendor variety for both development and operations teams alike. Built on an open-source base, Linux also delivers unmatched compatibility with leading software packages and needed integration tasks. Last, but not least, Linux vendors (in most cases) offer a subscription licensing alternative to that of traditional software packages—providing an opportunity for business to leverage OPEX rather than CAPEX budgets.  All of these reasons also align nicely with a recent Micro Focus survey where Linux was selected as a strategic platform for future growth.

SUSE Linux & App Modernization

But for the enterprise, where critical business workloads reside, are all Linux offerings really created equal?  For organizations with trusted business applications, it’s important to understand the distro difference to ensure existing core systems continue to run without costly interruption.  Some Linux providers pride themselves on enterprise-grade Linux offerings—offerings designed for scalability, performance and security. One such example is SUSE—and that brings us back to next week and a key SUSECon session topic.  Whether you are a software developer, an operations manager or an IT director, this year’s event is an opportunity to define your Linux future and the future of your enterprise applications. For those with legacy application workloads running on (let’s say) less than current hardware, this is also your chance to move to the future.

SUSE Linux delivers a launch pad for established enterprise apps. For legacy (COBOL) applications, this powerful combination of SUSE Linux, Visual COBOL and LinuxOne take existing business systems to new architectures including the Java Virtual Machine and the Cloud. Taking that step is easier than you may think.


Join us in Washington, D.C.

Join Steffen Thoss from IBM Research Labs and Ed Airey from Micro Focus to hear how enterprises are moving core business workloads to SUSE Linux, underpinned by the latest in high performant, hardware and software innovation—LinuxONE and Visual COBOL.  Learn how with modern tools, industry expertise and proven platform technology, core business systems can be protected and extended well into the future. Discover how digital transformation is enabling new delivery models and why a ‘Lead with Linux’ strategy can enable enterprise application portability, flexibility and choice. Define your Linux application strategy and future proof your proven business systems at SUSECon on Tuesday, November 8th at 11:30am US Eastern time.  We’ll see you there.