Donnerstag, Dezember 21

Aus »IBM TotalStorage« wird »IBM System Storage«

[12.12.2006] (eh) – Aus, das war’s für den Markennamen »TotalStorage«. Nachdem IBM schon seit einiger Zeit im Server- uns Systemebereich von der »Series«-Namensgebung hin zum »Systems«-Marketing überschwenkte – die Rechnerplattform »iSeries« beispielsweise heißt neuerdings »System i« –, zieht nun auch die Storage-Abteilung nach. Zukünftig heißt es also: »IBM System Storage« statt »IBM TotalStorage«.Die Neubenennung umfasst alle IBM-Storage-Produkte: Plattenspeichersysteme, SAN-Arrays, Bandsicherungslösungen, NAS-Speichersysteme sowie Software zur Infrastrukturverwaltung und Virtualisierung. Mit der Namensänderung will Big Blue zeigen, wie eng IBM-Speicherprodukte mit der IBM-System-Agenda verbunden sind.Die neuen Produktnamen werden Zug um Zug mit Neuankündigungen eingeführt, heißt es von IBM-Seite. Bestehende TotalStorage-Produkte werden weiterhin bis zu ihrem End-of-Life-Datum unter diesem Namen weitergeführt.
Mehr über die neuen »System«-Lösungen von IBM >>
Storage-Lösungen von IBM >>

What are the real benefits of virtualization?


A partial list of potential benefits includes improved service levels, a reduction in management complexity, and improved utilization of storage assets.


By David Hill

Virtualization is a fashionable word in the IT lexicon these days, but does it have staying power? What is virtualization and why/where/when does it matter?

Before we delve into those issues, it’s important to note that virtualization is not reserved for storage; in the IT world any resources can be virtualized, including servers, networks, operating systems, and applications. This article focuses only on storage virtualization.

Block-based storage virtualization is the technology that most people think of, but it is only one of many types of virtualization. The Storage Networking Industry Association’s virtualization taxonomy breaks down virtualization as follows:

  • What is virtualized?-block; disk; tape, tape drive, tape library; file, file system, record; other device virtualization
  • Where is it done?-host server, network, storage device
  • How is it implemented?-in-band, out-of-band

SNIA also has a shared storage model with a variety of levels, including storage devices (level 1), block aggregation (level 2), file/record layer (level 3), and applications (level 4). The focus of this article is on two types of storage virtualization: block- and file-based virtualization.

...

Donnerstag, Dezember 7

IBM Sets New Storage Performance Record With Industry-Standard Benchmar

RedNova: IBM Sets New Storage Performance Record With Industry-Standard Benchmark

ARMONK, NY -- (MARKET WIRE) -- 12/05/06 -- IBM (NYSE: IBM) today announced that the IBM System Storage DS8300 Turbo, introduced on August 22, 2006, is the fastest enterprise class storage system in the industry as measured by the Storage Performance Council's SPC-1 Benchmark(TM), outperforming the previous DS8300 SPC-1 Results by 22 percent.

The Storage Performance Council's industry storage benchmark SPC-1(TM) highlights IBM's storage performance leadership. SPC-1 consists of a single workload designed to demonstrate the performance of a storage subsystem, while performing typical functions of business critical applications. Those applications are characterized by predominately random I/O operations and require both queries as well as update operations.

The IBM System Storage DS8300 Turbo demonstrated the best performance for a single enterprise disk system by producing an SPC-1 Result of 123,033.40 SPC-1 IOPS(TM). [1] This industry leading result builds on IBM's leadership in this area. Last year, IBM System Storage SAN Volume Controller demonstrated the best performance for a virtualization solution with an SPC-1 Result of 155,519.47 SPC-1 IOPS. In addition, the SVC has produced an SPC-2 Result of 4,544.35 SPC-2 MBPS(TM). Based on those two SPC Results, the SVC remains the fastest storage system in all categories. [2]

"This latest benchmark result demonstrates IBM's continued performance leadership in the storage industry," said Kristie Bell, vice president IBM System Storage. "The top performance results for the IBM System Storage DS8300 Turbo system exemplify the strength of the DS8000 Turbo Series. The systems provide our customers with the high-performance, high-capacity storage systems that they require, delivering the scalability and flexibility needed to optimize their IT infrastructure and meet their business goals."

The IBM System Storage DS8300 Turbo Series exploits IBM POWER5+ processors to set a new standard in enterprise storage. This new SPC-1 Result demonstrates an SPC-1 performance improvement of up to 22 percent over previous versions of the IBM DS8300 for transaction processing workloads. The addition of 4Gbps Fibre Channel and FICON technology allows for the reduction of the number of network resources supporting simplified management and reduced infrastructure costs.

Additional features of the IBM System Storage DS8000 Turbo models include improved tiered storage options, functions to enable greater performance and efficiency for DB2 applications on IBM System p servers, and support for three-site business continuity solutions.

The IBM System Storage SAN Volume Controller, launched more than three years ago and installed in more than 2,200 businesses worldwide, continues to help reduce the cost and complexity of managing SAN-based storage to clients in many industries across the globe. Now in its fourth version, SVC is being used by customers including ShopKo, Care New England Health System and Palm Beach Community College.

"With this new SPC-1 Result, IBM has achieved a significant industry milestone in demonstrating the performance of its enterprise disk subsystem storage products," said Walter E. Baker, Administrator for the Storage Performance Council. "The goal of the SPC is to serve as a catalyst for performance improvement in storage subsystems and to provide a comprehensive view of storage performance for customers seeking to assess performance based upon objective, verified benchmark results."

SPC-1 Results have been released for a wide range of storage products. Each SPC-1 Result has been both audited and peer reviewed for compliance to ensure consistency and accuracy.

About SPC

The SPC is a non-profit corporation founded to define, standardize and promote storage system benchmarks and to disseminate objective, verifiable performance data to the computer industry and its customers. SPC membership is open to all companies, academic institutions and individuals. The SPC created the first industry-standard performance benchmark in 2001, targeted at the needs and concerns of the storage industry and its goal is to serve as a catalyst for performance improvement in storage. For a complete list of SPC-1 and SPC-2 Results, visit http://www.storageperformance.org/home.

About IBM

For more information about IBM, visit http://www.ibm.com

[1] Details of the DS8300 SPC Result are available at: http://www.storageperformance.org/results/benchmark_results_all#A00049 and http://www.storageperformance.org/results/benchmark_results_spc1#A00049

[2] Details of the SAN Volume Controller SPC Results are available at: http://www.storageperformance.org/results/benchmark_results_all#a00043 and http://www.storageperformance.org/results/benchmark_results_all#b00011

Contact:
Cary Barbour
IBM
917-472-3564
barbour@us.ibm.com

Montag, Dezember 4

Optimierte Auslastung durch Speichervirtualisierung

IDC 472
I D C I N S I G H T S F Ü R
F Ü H R U N G S K R Ä F T E
Optimierte Auslastung durch
Speichervirtualisierung
May 2006
Von Laura Dubois, Research Director, Storage Software, und Richard Villars, Vice President, Storage Systems
Sponsor: IBM

Wertsteigerung durch Speichervirtualisierung
Speichervirtualisierung ist nicht länger nur ein Konzept oder Zukunftsmusik. Alle großen Speicherhersteller bieten heutzutage diverse Arten der Speichervirtualisierung an. Einige Hersteller verfügen sogar bereits über ausgereifte Produkte der dritten oder vierten Generation. 2005 führte IDC eine Umfrage unter IT- und Wirtschaftsexperten durch, die für den Einkauf von Speicherprodukten (speicherbezogene Hardware, Services oder Software) für ihr Unternehmen verantwortlich sind. Diese wurden bezüglich der jetzigen bzw. der geplanten Nutzung von Speichervirtualisierung befragt (siehe Abbildung 1).

A b b i l d un g 1
Nutzung der Speichervirtualisierung nach Unternehmensgröße
Quelle: IDC-Umfrage Trends in Storage Survey, 2005
2 ©2006 IDC
Die Antworten zeigten, dass 19% der sehr großen Unternehmen (über 10.000 Mitarbeiter) bereits Speichervirtualisierung eingeführt haben und dass weitere 30% dies für das nächste Jahr geplant haben. Weiterhin planen 33% der großen Unternehmen (1.000 bis 10.000 Mitarbeiter) für das kommende Jahr eine Einführung von Speichervirtualisierung. Durch die zunehmende Verbreitung ausgereifter, etablierter Produkte nutzen immer mehr IT-Manager die Vorteile der Virtualisierung in Networked Storage-Umgebungen, um die Auslastung der Speicherressourcen zu optimieren, die Anwendungsverfügbarkeit zu verbessern, und die mit der Speicherverwaltung verbundene Zeit und Kostenaufwand drastisch zu senken.
Direkter Nutzen der Speichervirtualisierung

...

Donnerstag, November 23

"CommonStore for SAP" integriert R/3-Archive in IBM-Archivsysteme und "Total Storage DR550"

"CommonStore for SAP" integriert R/3-Archive in IBM-Archivsysteme und "Total Storage DR550"
DMS Expo 2005: Informationen sicher speichern und juristische Vorgaben erfüllen
(13.07.05) - Unter dem Motto "Integrate - Manage - Archive“ präsentiert sich IBM auf der dies-jährigen DMS Expo in Essen vom 27. bis 29. September 2005. Am Stand 1255 in Halle 1 zeigen IBM und Business Partner aktuelle Enterprise Content Management-Lösungen für den sicheren und kundenspezifischen Zugang zu Geschäftsdokumenten aus unterschiedlichen Quellen. Im Fokus stehen neue Lösungen aus den verschiedenen IBM-Geschäftsbereichen für eine reibungslose Druckausgabe, sowie integrierte Archivierungslösungen, die Informationen sicher speichern und dabei rechtlichen Vorschriften gehorchen. Anwendungsbeispiele führen die Deutsche Sporthochschule Köln, Kraft Foods Deutschland GmbH und BASF IT Services vor.
Unter dem Thema “Archive" präsentiert IBM die Lösung "IBM CommonStore" für die Archivierung von SAP R/3-, Lotus Domino- und Microsoft Exchange Server-Daten als integraler Bestandteil einer Dokumentenmanagement-Lösung. Nahezu alle Arten von geschäftlichen Informationen, einschließ-lich inaktiver Daten, E-Mail-Dokumente, gescannter Bilder, Faxe, Computerausdrucke und Geschäftsakten können gespeichert und bei Bedarf abgerufen werden.
CommonStore for SAP integriert SAP R/3-Archive in IBM-Archivsysteme wie Content Manager und IBM Total Storage DR550. Mit IBM Content Manager OnDemand lassen sich neben anderen Daten, vor allem COLD (Computer Output to Laser Disk) Dokumente, archivieren, indexieren, durchsuchen, abrufen, darstellen und drucken. Anwender können sofort auf alle relevanten archivierten Dokumente zugreifen.
Um Unternehmen bei der Verwaltung und langfristigen Sicherung von Daten zu unterstützen, hat IBM Storage Solution mit "IBM TotalStorage DR550" eine leistungsfähige Archivierungs-Storage-Lösung entwickelt. Mit DR550 bekommen Unternehmen ein Festplattenarchiv, auf dem sie IT-Daten revisionssicher und unter Berücksichtigung bestimmter Aufbewahrungsfristen lagern können. (IBM: ma)

SER integriert IBM TotalStorage DR550 mit DOXiS iECM Suite 2005

SER integriert IBM TotalStorage DR550 mit DOXiS iECM Suite 2005
08.11.2004 (13:56)


Hochleistungsspeicher für effizientes Information-Lifecycle-Management SER gibt die Integration des DOXiS Archivs mit der Speichertechnologie DR550 von IBM bekannt. Damit erweitert SER ihr Angebot an Storage-Technologien um eine weitere hochverfügbare Lösung zur revisionssicheren Speicherung von großen Mengen an Daten und Dokumenten. Leistungsfähige Verwaltungsfunktionen sorgen für die Einhaltung gesetzlicher Aufbewahrungsrichtlinien und ermöglichen so echtes Information-Lifecycle-Management. Mit der Integration der DR550 präsentiert die SER ihren Kunden ein weiteres Storagesubsystem für das DOXIS-Archiv: rein festplattenbasiert als hochverfügbares System oder abgestuft, bestehend aus Festplatten, ergänzt um weitere Speichermedien wie AIT-Tape Libraries und MO- / UDO- Jukeboxen von SER oder anderen Herstellern. Diese Flexibilität ermöglicht ein bedarfsgerechtes hierarchisches Speichermanagement und trägt damit zur Kostenoptimierung bei. Die Kombination aus DOXiS Archiv und DR550 eignet sich besonders für die Archivierung von Massendaten. Die kleinste Ausbaustufe ist ab 3,5 Terabyte erhältlich und kann bis zu 56 Terabyte erweitert werden. IBM-Kunden, die bereits eine DR450/550 für die Datensicherung ihrer Systeme im Einsatz haben, können diese über die DOXIS iECM-Suite 2005 nun auch für die revisionssichere Langzeitarchivierung ihrer Dokumente, Daten und E-Mails nutzen. Die Technologie Die IBM TotalStorage DR550 repräsentiert die neu entwickelte IBM-Generation von Datenaufbewahrungstools. Sie beruht auf Festplatten mit Write Once Read Many (WORM)-Technologie und dem POWER5 Mikroprozessor, der für hohe Sicherheit, Leistung und Geschwindigkeit bei der Datenablage sorgt. Anforderungen des Information-Lifecycle-Managements erfüllt die Storage-Lösung durch eine zentrale Steuerung der Daten, die z.B die jeweiligen Aufbewahrungsfristen berücksichtigt und Daten nach einem festgelegten Zeitraum vom Festplattensystem auf günstigere Speichersysteme verlagern kann. Darüber hinaus bietet die eingesetzte WORM-Medientechnologie eine leichte Bedienung sowie neue, kostengünstigere Konfigurationsmöglichkeiten. Die physikalische Medienablage Serial ATA (SATA) macht IBM TotalStorage DR550 zum idealen Werkzeug für Kunden, die eine preiswerte Nearline-Storage-Anwendung für flexiblere Datenspeicherung suchen und gleichzeitig von Zuverlässigkeit, Sicherheit und Funktionen profitieren wollen, die sonst nur bei Großrechnern zu finden sind.

IBM erweitert das Speichersysteme-Portfolio für mittelständische Unternehmen

IBM erweitert das Speichersysteme-Portfolio für mittelständische Unternehmen
Für den Inhalt der folgenden Meldung ist nicht die Verivox GmbH sondern der Autor IBM Deutschland GmbH verantwortlich.
(pressebox) Armonk, 20.11.2006 - IBM (NYSE: IBM) hat die Reihe seiner Speicherlösungen für mittelständische Unternehmen erweitert und dabei auch seine Beziehung mit Network Appliance (NetApp) mit neuen Produktangeboten ausgebaut. Die heutige Ankündigung umfaßt ein neues Speichersystem wie auch erweiterte Interoperabilität in Sachen Virtualisierung sowie Datenbank-Backup-Software.Die neue IBM System Storage N5600 Appliance ist das jüngste Mitglied der N series-Speicherfamilie. Sie ist gedacht für mittelgroße Unternehmen, die einen Wachstumspfad hin zu den Enterprise-Klasse-Lösungen suchen und skaliert bis zu 252 Terabyte physische Kapazität. Zwei Modelle werden angeboten, als N5600 A10 mit Single Storage Controller sowie N5600 A20 mit Dual Storage Controller. Die N5600 ist zwischen der N5500 und der N7600 positioniert und bietet Konnektivität zu 4-Gbps-Fibre-Channel- und High-Speed-Gigabit-Ethernet-iSCSI-Netzen an. Merkmale sind eine 64-bit-Architektur und PCIe-Controller für nahtlose Updatemöglichkeiten.
Ads_kid=0;Ads_bid=0;Ads_xl=0;Ads_yl=0;Ads_xp='';Ads_yp='';Ads_xp1='';Ads_yp1='';Ads_opt=0;Ads_wrd='';Ads_prf='';Ads_par='';Ads_cnturl='';Ads_sec=0;Ads_channels='';
function Ads_PopUp() {}

Die N5600 nützt die gleichen Plattenlaufwerke, Erweiterungseinheiten und Softwaremerkmale wie die anderen N sereis-Produkte. Die N5600 hat eine höhere Leistung als die N5500 mit 50% mehr Spindeln und Kapazität, sowie der doppelten Hauptspeichermenge und der bis zu dreifachen maximalen Bandbreite.IBM hat ebenfalls die Interoperabilität zwischen den N series Gateways und dem IBM System Storagen SAN Volume Controller angekündigt. Dies ermöglicht es, die N series Gateways an einen SVC-Storagepool anzuschließen, für heterogenes File-Sharing und Block-Level-VIrtualisierung. Auf File-Level bieten die N series-Gateways ein IP-Portal, das es ermöglicht, sie mit einem Fibre-Channel-Storage-Subsystem zu verbinden. Dieser heterogene Mix ermöglicht SAN-Speicher-Zugang durch ein einzelnes IP-Portal ohne die hohen Kosten von Fibre-Channel-Host-Bus-Adaptern und Port-Attachment-Gebühren.Abschließend neu angekündigt wurde der SnapManager für Oracle - gedacht für die Automatisierung und Vereinfachung komplizierte manueller, zeitfressender Prozesse, die mit dem Backup, Restore, Recovery und Klonen von Oracle-Datenbanken verbunden sind. Die Lösung ist dafür entwickelt, eine Datenbank für die Nutzung durch Test- und Entwicklungsteams zu schaffen, nützen und zu klonen., während gleichzeitig ein hohes Verfügbarkeitsniveau für End-User aufrechterhalten wird. Der SnapManager identifiziert automatisch das Backup-Datenset und setzt die Datenbank in Hot-Backup-Modus,während eine Snapshot-Kopie zur Sicherstellung der Konsistenz geschaffen wird. Dies ermöglicht Datenbankadministrtoren, Backup, Restore, Recovery- und Klon-Vorgänge durchzuführen, bei denen das Risiko eines Datenverlustes minimiert werden kann.Preise und Verfügbarkeit.Das IBM System Storage N5600 und der SnapManager für Oracle werden generell voraussichtlich ab 8. 12. 2006 verfügbar. Der US-Listenpreis des N5600 beginnt ab $97.500. SnapManager für Oracle wird vorausssichtlich zu einem Listenpreis von $3.125 pro gemanagtem Host angeboten. Die Interoperabilität zwischen den N series Gateway-Geräten und dem SVC wird ebenfalls voraussichtlich ab 8. Dezember zur Verfügung stehen.IBM's industry-leading Ecosystem program is designed to provide IBM Business Partners of all types the resources and assets needed not only for technical enablement, but sales enablement, education and go-to-market as well. IBM provides application ISVs education, skills, IBM experience and IT resources to quickly achieve ROI on their grid enablements through Grid Innovation Centers worldwide. Reseller and system integrator partners can also take advantage of grid offerings, specific education available through the IBM PartnerWorld University's customized, opportunity-based learning programs to gain skills and programs such as the Grid Valuenet to help build new market opportunities and go-to-market plans. IBM also has Grid Design Centers, the India-based IBM Grid Integration Center and solution initiatives to help Business Partners integrate, bundle and deliver "value-differentiated" grid-based offerings to their customers. Through partnering, IBM is enabling vendors to extend their market reach and customer opportunities as part of the IBM "Ready-For Grid" enablement and certification program, the ValueNetwork initiative and the PartnerWorld Industry Networks (PWIN) marketing benefits. For more information on IBM, visit ibm.com. For more information on IBM's Grid products and offerings, visit ibm.com/grid. For more information on IBM's Grid Business Partner offerings visit ibm.com/grid/partner. For more information on IBM's Business Partner Innovation Centers, visit www.ibm.com/partnerworld/bpic.Contact(s) information

Dienstag, November 21

IBM Speichersysteme. Seit 50 Jahren der Zeit vorausIBM Speichersysteme. Seit 50 Jahren der Zeit voraus

Im September 1956 stellte IBM das erste Plattenspeichersystem für Computer vor, die IBM 350 Plattenspeichereinheit, die in Verbindung mit dem 305 RAMAC System ausgeliefert wurde. Thomas J. Watson, Jr. meinte damals: "Unternehmer erhalten damit endlich jederzeit die aktuellen Daten, die sie brauchen." Die 350 Plattenspeichereinheit konnte 5 Millionen Zeichen auf 51 Platten speichern, jede mit einem Durchmesser von 61 cm.

50 Jahre später ist die technische Entwicklung weit fortgeschritten, aber einige Dinge haben sich nicht verändert: Die IBM ist immer noch führend in der Entwicklung von Speichersystemen und hat sich die Bereitstellung von Informationen "on demand" für ihre Kunden auf die Fahne geschrieben. Kein Unternehmen hat so viele Patente in der Speichertechnologie vorzuweisen wie IBM. Das aktuelle Flaggschiff der Plattenspeichersysteme von IBM, die IBM System Storage DS8000, speichert bis zu 320 TB Daten, besitzt also eine 64 Millionen Mal größere Speicherkapazität als die IBM 350 Plattenspeichereinheit und bietet Funktionen, die man sich vor 50 Jahren nicht einmal erträumte.

Mittelständischer Plattenspeicher

IBM erweitert mit der Appliance 'System Storage N5600' das Portfolio an Speicherlösungen für mittelständische Unternehmen.

Die Appliance "System Storage N5600" von IBM erweitert das Angebot des Herstellers an Speicherlösungen für mittelständische Unternehmen. Der Festplattenspeicher ist in zwei Varianten erhältlich, als A10 mit einem Single-Storage-Controller sowie A20 mit einem Dual-Storage-Controller. An Speicherplatz stehen dem Nutzer bis zu 252 TByte zur Verfügung.

IBM hat daneben eine Interoperabilität zwischen den N-Series-Gateways und dem "System Storage SAN Volume Controller" angekündigt. Dies ermögliche es, die N-Series-Gateways an einen SVC-Storagepool anzuschließen, für heterogenes File-Sharing und Block-Level-Virtualisierung. Auf Dateiebene bieten die N-Series-Gateways ein IP-Portal, das es ermögliche, sie mit einem Fibre-Channel-Storage-Subsystem zu verbinden. Dieser Mix erlaube den SAN-Speicher-Zugang durch ein einzelnes IP-Portal.

Das Modell N5600 soll nach Herstellerangaben ab 8. Dezember verfügbar sein. Die Preise beginnen voraussichtlich ab 97.500 US-Dollar.

Montag, November 6

IBM schnürt Speicherpakete


20.10.2006

Die IBM verfolgt weiter ihre Strategie, technische Dienstleistungen wie Produktpakete zu vertreiben. Der Dienst "Data Management Service Product" umfasst Assessment, Planung, Entwicklung und Implementierung für Datenbankkomponenten. Des Weiteren gibt es ab sofort das "Data Warehouse Service Product", das neben Assessment, Planung, Entwicklung und Implementierung auch Upgrade- und Migrationservices umfasst.

Service gleich Produkt

Mit Hinweis auf die gestiegenen gesetzlichen Anforderungen in der Datenhaltung und -verfügbarkeit vertreibt IBM das "Information Lifecycle Management Service (ILM) Product". Es greift erprobte ILM-Verfahren auf und klassifiziert Daten, so dass Anwenderunternehmen Compliance-Anforderungen erfüllen. Dazu werden Speichersysteme optimiert und virtualisiert sowie Archivierungsverfahren eingeführt. Rund um die Themen Disk, Tape, Network Attached Storage und Speichersoftware sollen die "Implementation Services for Storage Product" Datensicherung und -wiederherstellung im Unternehmen verbessern. Schließlich gibt es mit dem "Migration Services für Data Service Product" ein Paket zur Datenmigration. (jha)

Das grüne Rechenzentrum

Das grüne Rechenzentrum

20.10.2006

Seit die US-Amerikaner ihr Umweltbewusstsein entdeckt haben, wird auch der Energieverbrauch von IT-Equipment gemessen und bewertet. Ausgelöst durch die dicht gepackten Blade-Server, gelten heute für Rechenzentren andere Maßzahlen als früher: Statt MIPS, Byte und Baud stehen Watt, Grad Celsius und Volt im Mittelpunkt.

Blades lassen Stromkosten explodieren

27.10.2006

Die Energiekosten der Computerräume können in den nächsten Jahren bis zu 50 Prozent des IT-Budgets ausmachen, prophezeit Gartner. Stromspartechniken für Rechenzentren sind deshalb gefragt.


Hier lesen Sie …

• wie sich die Energiekosten entwickeln werden;

• wie Energieeffizienz zu erreichen ist;

• auf was RZ-Betreiber achten sollen.


Vor allem die Blade-Server entfachten Diskussionen darüber, wie energieeffizient ein modernes Rechenzentrum arbeiten muss. Denn was einerseits als Innovation gepriesen wurde - viel Rechenpower auf kleinstem Raum - , hat andererseits in puncto Stromverbrauch und Wärmeentwicklung einen Pferdefuß: "Der Energiebedarf eines Racks, voll bestückt mit Blade-Servern, kann zehn- bis 15-mal so hoch sein wie für traditionelle Server. Die meisten Rechenzentren, die vor 15 oder 20 Jahren gebaut wurden, sind für diese Belastungen nicht geschaffen", beschreibt Rakesh Kumar, Research Vice President bei Gartner, die gestiegenen Anforderungen. "Viele Rechenzentren sind auf 200 bis 300 Watt pro Quadratmeter ausgelegt, und das reicht heute nicht mehr aus. Die Dichte schafft die Probleme", schildert Julian King, Europa-Chef des Rechenzentrumsbauers Global Switch.

Die Energiespirale dreht sich

Damit meint King nicht nur die Schwierigkeit, die benötigte Strommenge im Rechenzentrum bereitzustellen. Während der Arbeit nämlich geben die Prozessoren die Energie in Form von Wärme wieder ab und sorgen dabei bezüglich der Kühlung für fast noch größere Probleme. Der Rechenzentrumsbetreiber steht also vor zwei Fragen: Wie bekommt er so viel Strom in den engen Raum, und wie wird er die Hitze wieder los, bevor das Equipment den Geist aufgibt? Der Teufelskreis wird schnell sichtbar: Mehr Strombedarf pro Quadratmeter hat mehr Abwärme zur Folge, deren Kühlung den Energiebedarf nochmals in die Höhe treibt.

Wirtschaftliche Aspekte

Dazu kommt für die CIOs der wirtschaftliche Effekt. Die in den letzten Jahren stark steigenden Energiekosten bedrohen sogar das Wachstum der IT-Branche, warnt Gartner-Analyst Kumar: "Bisher belaufen sich die Energiekosten im IT-Sektor auf weniger als zehn Prozent des gesamten IT-Budgets. In den nächsten Jahren könnten die Ausgaben jedoch auf mehr als 50 Prozent ansteigen."

Neben technischen und wirtschaftlichen Aspekten könnten in Zukunft auch rechtliche Gründe die IT-Branche dazu zwin- gen, auf mehr Energieeffizienz zu achten. Die EU-Kommission hat dazu einen Aktionsplan vorgelegt, der als Ziel definiert: "den Energieverbrauch durch die Verbesserung der Energieeffizienz zu senken, um die Umwelt zu schützen, die Versorgungs- sicherheit zu erhöhen und eine nachhaltigere Energiepolitik zu betreiben". Der Kommission geht es darum, "Verhaltensweisen, Arbeitsmethoden und Produktionstechniken zu fördern, die weniger Energie erfordern". RZ-Bauer King "vermutet, dass da etwas unterwegs ist und es in Zukunft Gesetze geben wird".

Energieeffizienz im RZ bedeutet nach Ansicht von King, dass die Datacenter "modular aufgebaut" und so gestaltet sind, wie sie später genutzt werden: "Abschnitte mit einer Stromversorgung von bis zu 400 Watt je Quadratmeter reichen für viele Anwendungen aus und benötigen nicht so große Kühlaggregate wie Bereiche, in denen Blade-Farmen angesiedelt sind." Zudem sei darauf zu achten, dass die Infrastruktur die unterschiedlichen Auslastungsgrade eines RZ widerspiegle. Statt ein großes Kühlgerät anzuschaffen, wie es die Volllast des Betriebes erfordere, fahre man besser mit zwei kleineren, die nur bei Bedarf zusammen angeschaltet sind.

Trotz solcher Überlegungen sind die RZ-Betreiber zunächst darauf angewiesen, die IT-Komponenten zu verwenden, die aktuell verfügbar sind. "Stromsparende Techniken, wie sie im Umfeld von Notebooks bereits an der Tagesordnung sind, haben sich im Server-Bereich noch längst nicht durchgesetzt", beschreibt King die Situation der CIOs.

Stromsparkomponenten

Aber die Lieferanten von RZ-Komponenten entwickeln - teilweise beflügelt durch boomende Mobilanwendungen - bereits stromsparende Geräte. So will Infineon die Energieeffizienz von Netzteilen steigern. Dazu wurde "Optimos 3" entwickelt, das nach Herstellerangaben bei der Stromversorgung "ein Drittel weniger Bauteile, bis zu zwei Drittel geringeren Platzbedarf und um ein Drittel niedrigeren Durchlassverlust" bewirkt.

In den USA hat sich im Jahr 2004 die Initiative "80 Plus" gegründet, die die Effizienz von Netzteilen verbessern will. Mittlerweile ist das Konzept so weit gediehen, dass das US-Energieministerium plant, die 80-Plus-Standards als Zertifizierungskriterium für den "Energy Star" zu übernehmen. Bis jetzt hat sich jedoch noch keiner der großen IT-Hersteller zu 80 Plus bekannt. Kürzlich machte Google von sich reden, als Urs Hölzle und William Weihl auf dem Intel-Entwicklerforum in San Franzisko ein White Paper zu dem Thema präsentierten. Google betreibt riesige Rechenzentren und hat dafür ein energieeffizientes Stromversorgungssystem entwickelt. Nach Ansicht der beiden Google-Wissenschaftler sind heutige Stromversorgungen überdimensioniert. Würde man die neue Lösung in 100 Millionen Desktop-PCs einbauen, die acht Stunden am Tag arbeiten, dann könnte man innerhalb von drei Jahren 40 Milliarden Kilowattstunden einsparen. Das macht, gemessen an den kalifornischen Strompreisen, fünf Milliarden Dollar aus.

Coole Lösungen

IBM hat mit "High Thermal Conductivity Interface Technology" eine neue Möglichkeit zur Kühlung von Computerchips gefunden, die eine "zweifache Verbesserung der Wärmeabfuhr gegenüber derzeit gängigen Verfahren" erreicht. Die Prozessorhersteller kämpfen damit, dass sich die Energiemenge zur Kühlung der Systeme rasant der Energiemenge nähert, die für das Computing selbst erforderlich ist.

APC, Lieferant von Infrastrukturkomponenten für das Rechenzentrum, hat mit der "Infrastruxure" eine Komplettlösung für die Klimatisierung von Rechenzentren entworfen. Kernpunkt dabei war, die mit Blade-Servern voll gepackten Racks Rücken an Rücken zu stellen, um die Abwärme zentral ableiten zu können. In Zukunft, so RZ-Bauer King, werden solche Zentren neben Schwimmbädern errichtet werden und diese beheizen.

Aber nicht nur Hersteller von Stromversorgungen und Prozessoren machen sich Gedanken über mehr Energieeffizienz. Auch Speicherlieferant EMC nimmt sich des Themas an und fordert, beim Kauf eines Speichers auf die Maßzahl "Watt pro Terabyte Speicherkapazität" zu achten.

Stromrechnung im Visier

Sun Microsystems hat sich dafür interessiert, wie wichtig Anwendern energieeffiziente Techniken sind, und Harris Interactive mit einer Studie beauftragt. Von den 197 befragten Führungskräften erklärten 76 Prozent, dass die Energieeffizienz für sie ein bedeutendes Kaufargument darstellt. Allerdings bekannten 63 Prozent, dass sie die aktuellen Energiekosten ihrer Unternehmen nicht kennen.

Samstag, November 4

Nachholbedarf bei der Dauer von Backup & Recovery

Nachholbedarf bei der Dauer von Backup & Recovery
Die Datenwiederherstellung und die Archivierung aufbewahrungspflichtiger Daten sind die größten Herausforderungen für den deutschsprachigen Mittelstand. Dies ist das Ergebnis einer aktuellen Storage-Studie. Zudem stehen kürzere Backup-Zeiten ganz oben auf der Prioritätenliste.
von Karl Fröhlich

Die Studie »Storage im Mittelstand« wurde gemeinsam mit der Münchner PR-Agentur Fleishman-Hillard und in Kooperation mit dem Marktforschungsinstitut Smart Research durchgeführt. Sie basiert auf einer Umfrage unter den Besuchern des auf Storage fokussierten Online-Mediums speicherguide.de. Insgesamt wurden 224 Fragebögen ausgewertet. Das Teilnehmerfeld setzt sichunter anderem zu rund einem Drittel aus IT- und Systemadministratoren zusammen und zu zirka 45 Prozent aus Abteilungs- und EDV-Leitern sowie Geschäftsführern. Zudem tragen 6,25 Prozent den Titel Storage-Administrator. Beschäftigt sind die Befragten zu knapp 45 Prozent in Unternehmen mit bis zu 50 Mitarbeitern. 31,25 Prozent arbeiten in Firmen mit bis zu 250 Mitarbeitern und rund 23 Prozent in größeren Betrieben.
...

Dienstag, Juni 6

IBM stellt die nächste Generation ihrer Speicher-Virtualisierungssoftware vor

Verbesserte Disaster-Recovery-Eigenschaften und weitere Distanzen
(06.06.06) - IBM kündigte wichtige Verbesserungen ihrer Speichervirtualisierungssoftware an. Dabei werden jetzt weitere Distanzen überbrückt, höhere Geschwindigkeiten erreicht, und eine größere Anzahl an Plattformen unterstützt.
Der "IBM System Storage SAN Volume Controller 4.1" (SVC) erhält eine Reihe leistungsstarker neuer Technologien, insbesondere für die Wahrnehmung größerer Distanzen - mit einer neuen Global Mirroring-Funktion können Kunden Daten in Lokationen virtualisieren, die mehr als 100 Meilen voneinander entfernt sind - schneller und kostengünstiger als bisher. Zusätzlich zu den Business-Continuity-Verbesserungen unterstützt SVC 4.1. jetzt Umgebungen mit vier Gigabit/s und kann Daten auf nahezu achtzig unterschiedlichen Disk-Systemen virtualisieren.
IBM hat in diesem Monat bereits bekannt gegeben, dass über 2000 Kunden SVC bereits einsetzen, mit einer Gesamtmenge von 15 Petabyte (15.000 Terabyte) an virtualisierten Daten. IDC hat kürzlich berichtet, dass die Install Base Appliance-basierter, virtualisierte Netzwerk-Speicherkapa-zitäten Ende 2005 bereits 28,1 Petabyte betrug. Basierend auf dieser Information geht IBM davon aus, dass SVC mehr als die Hälfte dieser Speicherkapazität im Markt heutzutage verwaltet.

...

Freitag, Juni 2

IBM erneuert Tool für die Virtualisierung von Speicher

IBM hat die 'SVC'-Software für die Virtualisierung von Speicher erneuert.
Der 'System Storage SAN Volume Controller 4.1' (SVC) enthält nach Angaben des Herstellers eine Reihe neuer Techniken. Die Disaster-Recovery-Eigenschaften wurden verbessert. Das Tool arbeitet in höheren Geschwindigkeiten über weitere Distanzen und unterstützt mehr Plattformen.

Mit Hilfe einer neuen Global-Mirroring-Funktion können IBM-Anwender Daten jetzt an Standorten virtualisieren, die mehr als 160 Kilometer voneinander entfernt sind. SVC 4.1. unterstützt zudem auch Umgebungen mit 4 Gigabit pro Sekunde und kann Daten auf nahezu achtzig Disk-Systemen virtualisieren.
Die Funktion 'Cluster Non-Disruptive Upgrade' ermöglicht es den Anwendern außerdem, vorhandene SVC Engines durch neue auszutauschen, ohne den Zugang zu den Daten zu unterbrechen. IBM SVC 4.1 wird ab dem 23. Juni mit kombinierter Hardware und Software ausgeliefert. Der US-Listenpreis beginnt bei 42.500 Dollar.

Dienstag, Mai 9

Computerwire: IBM Clocks 2,000 SVC Customers

Computerwire: IBM Clocks 2,000 SVC Customers
Tim Stammers
May 5, 2006
IBM Corp has chalked up its 2,000th customer for its SVC storage virtualization controller, and says it is adding four to five new customers per day.
Assuming that IBM is talking about weekdays only, that is equivalent to a run-rate of 1,000 to 1,300 new customers per year, in addition to new SVC sales to existing customers. IBM itself said this week it was a little over a year ago that it announced its 1,000th SVC customer.
The SVC began shipping in 2003, and so enjoyed a head-start over other tier-one storage vendors' virtualization products.
Hitachi Ltd and its OEM customers Sun Microsystems Inc and Hewlett-Packard Co began shipping the Hitachi TagmaStore disk array late in 2004. The TagmaStore can virtualize Hitachi and third-party arrays attached to it, and last month Hitachi's subsidiary Hitachi Data Systems said that around 40% to 45% of the TagmaStores it has sold - including the cut-down NSC versions - are being used to virtualize "something."
EMC Corp, the third large high-end storage vendor, began selling its Invista virtualization software late last year, and is still not talking about sales numbers.

Mittwoch, Mai 3

IBM Extends Lead in Storage Virtualization; Surpasses 2,000 Virtualization Customers With ShopKo

Email this Release Printer-Friendly

IBM Extends Lead in Storage Virtualization; Surpasses 2,000 Virtualization Customers With ShopKo
ShopKo's Storage Virtualization Solution Reduces Back-Up Times by Up to 67%
ARMONK, NY -- (MARKET WIRE) -- 05/02/2006 -- IBM today announced it now has more than 2,000 storage virtualization customers, further extending its lead in the marketplace with the addition of ShopKo.
"This is a milestone event, as ShopKo is one of 2,000 clients who have turned to IBM to simplify their infrastructures with IBM's virtualization engine software," said Kristie Bell, vice president, IBM System Storage. "No other vendor can match IBM's heritage in virtualization or ground-breaking solutions that simplify our clients' infrastructures. IBM's virtualization software is providing customers with improved total cost of ownership, better utilization, increased application availability and flexibility."
ShopKo has completed implementation of a tiered storage infrastructure based on IBM disk and virtualization technology. The information on demand environment has reduced backup time for major applications by as much as 67 percent and improved overall application response time. The IBM virtualization solution is expected to provide ShopKo with nearly $2 million in additional savings over the next four years. ...

Samstag, März 4

Tivoli Intelligent Orchestration and Provisioning (Demo) by IBM Corporation

Tivoli Intelligent Orchestrator

IBM Tivoli Intelligent Orchestrator helps you reduce your costs and improve server utilization. It helps improve server-to-administrator ratios by automating the steps to provision, configure, and deploy a solution. View Demo Online- Requires High Speed Connection- Window Opens at 1024 x 768-Runtime 5:42Product Overview--In today's competitive, dynamic and fluctuating business environment, new on demand technologies are required to reduce total cost of ownership, improve the return on IT investments, and support company growth. System and datacenter utilization rates are actually very low, and these under-utilized assets can be tapped to respond to workload demands that can spike with only so much warning as an unexpected news release. Today it is no longer necessary to incur in excess server capacity and cost for just-in-case situations. IBM Tivoli Intelligent Orchestrator helps you deal with these challenges.

...

Sonntag, Februar 19

IBM Adds Management Tool

http://www.byteandswitch.com/document.asp?doc_id=89262&WT.svl=wire2_1

ARMONK -- IBM today announced a new version of IBM TotalStorage Productivity Center, software that can centralize management of multi-vendor storage systems, improve administrative efficiency, reduce business risk and improve storage utilization. The software helps customers access, manage and deliver information more efficiently to enable Information on Demand and leverages IBM’s IT Service Management initiative – designed to integrate and automate IT processes.

...

Dienstag, Februar 14

Techworld: IBM's storage virtualization may migrate to the switch

Techworld: IBM's storage virtualisation may migrate to the switch
The SVC appliance could have virtualisation functions moved out
By Chris Mellor, January 13, 2006
http://www.techworld.com/features/index.cfm?featureID=2249
The Anna Karenina principle was mentioned in December, 2004, interview with IBM's storage virtualisation architect, Steve Legg. In it he said that the best and architecturally cleanest place for a storage virtualisation function was inside the storage fabric. This was partly because the fabric could better see all the storage devices than a storage array controller such as HDS' TagmaStore.
IBM chose to implement its virtalisation product, the SAN Volume Controller or SVC, in an appliance which links to a SAN fabric switch or director. Since then there has been the development of intelligent directors which can run storage applications. A standard interface is being developed for these, known as the Fabric Application Interface Standard or FAIS.
We talked again to Steve Legg and found out IBM's current thinking on storage virtualisation.
TW:What is the current situation with SVC?
Steve Legg: There are now over 1,800 SVC systems installed. We're probably the storage virtualisation leader based on a units or revenue measure.
TW: Could you remind of us your product platform choices when you developed it?
Steve Legg: We chose our in-band technology very much on the grounds that, then in 1999, it served the purpose with the hardware available.
TW: And the situation now?
Steve Legg: I'm not hung up on the platform where it runs. We need memory mips and MB/sec bandwidth. It's been designed so that we could always move it elsewhere if we want to. Now processing in the fabric switch (director) is starting to mature. Whilst we have no product plans right now, we are having discussions about how we can use that processing power in the switch.
The location of storage virtualisation won't have moved; it would still be in the SAN fabric. But within the SAN fabric you can do it in a variety of places; an appliance or the switch.
TW: As EMC's InVista does. Could you give us your view of InVista here?
Steve Legg: InVista is not out there yet; it's in beta. InVista will provide logical-to-physical translation. It doesn't cover cacheing, point-in-time copy or other copy services that SVC does. It's not trivial to do this.
If you just want to do virtualisation then do it in the switch. If you want to do more then you need more than you can do in the switch.
TW: IBM knows about what you can and can't do in switches because it has experimented with a switch-based version of SVC.
Steve Legg: Our SVC in one implementation is on two appliances that are Intel-based and in an active:active pairing. They link to the switch in a full-duplex way through four fabric ports.
Another SVC implementation has it fit inside a Cisco switch as an embedded product based on a Mips processor. Approximately nine were sold. Technically it was a complete success, commercially a complete flop.
Switch slots represent a very specialised space. The switch has a specific backplane. An embedded design in the switch is limited in scalability. Cisco and others are now putting intelligence into fabric ports themselves. We could exploit these mips, MB and MB/sec for virtualisation. (But) for copy services, etc. we can best do it still in the appliance. We could split off virtualisation functions into the switch and use the (existing) appliance for cacheing and helping out with copy services.
Scalability
TW: Steve Legg than looked at the appliance's capacity and scalability. (Previously, in-band virtualisation approaches have been criticised for introducing a potential bottleneck into the SAN fabric.)
Steve Legg: Our SVC appliance has active:active nodes; they're paired for availability. We cluster them for scalability. There hasn't been anything said about SVC bottlenecking.
The appliance has to deal with the aggregate workload coming from the hosts, not the theoretical maximum I/O bandwidth of all the switch ports or I/O controllers. A host connected to a SAN don't generate hundreds of I/Os a second. It's three or four I/Os a second because most of the time hosts are running business logic. The fan-in from hosts to the SVC can be huge.
TW: So the picture here is that a SAN fabric director (switch in Legg's phraseology) can be an effective place to run basic virtualisation but the physical space available in the switch limits the scalability and the storage application stack that could be needed. The best place to have applications that are layered onto the virtualisation function is in a connected (in-band) appliance which can scale up in power and availability as required.
We then asked Steve Legg about FAIS, and a couple of questions about Network Appliance and storage products from suppliers such as 3Par, Exanet and BlueArc.
What is your view of FAIS?
Steve Legg: FAIS is a proposed standard. We're totally committed to that being the way to do it.
TW: Can you briefly mention where NetApp fits in with SVC?
Steve Legg: NetApp filers don't connect to SVC, The NETApp gateway, the V-series has backend storage which are Fibre Channel arrays. The SVC fits there. There is overlap here. There always will be.
TW: What do think of the virtualisation approaches from 3PAR, Exanet, BlueArc and so on?
Steve Legg: Here the all-in-one environments are a limiting factor. You can't easily change the architecture if you want to split off functions. The SVC is open. You can buy whatever disk or disk arrays you like. You can move virtualisation to the switch if you like.
TW: And lastly, a quick look at storage controller-based approaches to virtualisation?
Steve Legg: If you put virtualisation and storage applications in the storage controller it's inflexible. You can't move functions easily to the fabric; it's limiting. Also suppliers will inevitably optimise components to improve performance and/or cost and thereby prejudice openness.
TW: As an architect Legg is strongly biased in favour of clean interfaces between functional levels in a stack or interfaces in a network. It's the OSI 7-layer model approach, one that has proved its enduring worth over time.
We might expect to see IBM hiving basic virtualisation off the SVC appliance and running it inside a Brocade, Cisco or McDATA director. But the indications are that it believes it can provide better storage virtualisation-based functions by running them, still, on its SVC appliance.
With customer installations heading towards 2,000 it is an approach that resonates well with a lot of customers. Many of them, if not all of them, will have Brocade, Cisco or McDATA directors. Why should they change their approach?
In one sense it will be an easy choice to make. What will the director-based storage applications be able to do now and in the future that the SVC appliance won't? What are the comparable costs and management tasks? What do the roadmaps look like? Tick the boxes and choose. To throw out an incumbent the director-based products have got to be really good. Expect a flood of white papers and analyst reports trying to prove things one way or the other.

CeBIT 2006: Open Text lädt in die ECM-Lounge ein

http://www.verivox.de/news/ArticleDetails.asp?aid=23635&pm=1

Für den Inhalt der folgenden Meldung ist nicht die Verivox GmbH sondern der Autor Open Text GmbH verantwortlich.
(box) München, 10.02.2006 - Open Text™ (Nasdaq: OTEX, TSX: OTC), der führende unabhängige Anbieter von Enterprise Content Management (ECM)-Software, lädt auch zur diesjährigen CeBIT 2006 in seine ECM-Lounge ein. Hauptthema des Messeauftritts sind die strategischen Partnerschaften des Unternehmens mit Microsoft und SAP, die in den letzten Monaten nochmals substanziell erweitert wurden und bereits erste Ergebnisse in Form von neuen Produkten gezeigt haben. Aufgrund der service-orientierten Architektur der Open Text-Lösungen können aber prinzipiell alle Datenquellen in eine ECM-Landschaft eingebunden werden. Damit bringt Open Text sowohl strukturierte als auch unstrukturierte Inhalte aus den verschiedensten Systemen und Applikationen zum Anwender, bindet sie Geschäftsprozesse ein und managt ihren kompletten Lebenszyklus. Mitaussteller in der ECM-Lounge von Open Text sind die Partner Deutsche Post AG, IBM Deutschland, Kofax und Oracle. Die ECM-Lounge von Open Text auf der CeBIT 2006 befindet sich in Halle 3, Stand C57.

...

- Auf dem Open Text Stand zeigt IBM als langjähriger Technologie-Partner von Open Text gemeinsam mit dem IBM-Businesspartner SVA GmbH, Wiesbaden, die Livelink PDMS Lösung basierend auf dem IBM eServer pSeries/p5 sowie eigene IBM Storage-Lösungen wie das Produkt „IBM ToTalStorage DR 550“. Die Lösung „Livelink for Production Document Management“ ist ein Archivierungs- und Dokumentenmanagement-System für Unternehmen, die hohe Volumina an Daten und Dokumenten effizient und langfristig verwaltet.

Donnerstag, Februar 2

Second Generation CDP

http://www.line56.com/articles/default.asp?ArticleID=7301

Continuous Data Protection, more commonly known as CDP, is the buzzword du jour in the data protection market

by Scott Jarr, Lifevault

Thursday, February 02, 2006

--------------------------------------------------------------------------------
Continuous Data Protection, more commonly known as CDP, is the buzzword du jour in the data protection market. Recent announcements by large, brand-name vendors like Microsoft, IBM/Tivoli and Symantec all tout their latest products as providing continuous data protection, so the market is categorizing all CDP products as "new."
In fact, CDP products have been around since the late 1990s. Dozens of vendors claim to provide CDP and have their own perspective of what exactly CDP entails. For an additional perspective, Google "CDP software" and you will receive nearly 200,000 results. With that being said, if you take a look at what CDP really means and do your best to avoid the marketing hype, you'll soon learn that what most vendors are offering is rudimentary and won't fully protect your business. The majority of CDP offerings claim to provide CDP, but what they are offering is continuous data backup, not continuous data protection. CDP already is into its second generation, and it's no longer about just backing up data.

...

IBM auf der CeBIT 2006

http://www.verivox.de/news/ArticleDetails.asp?aid=23086&pm=1

(box) Stuttgart, 01.02.2006 - Innovative Lösungen für On Demand Business stehen im Mittelpunkt des Auftritts von IBM auf der CeBIT 2006 (9.-15. März in Hannover). Unter dem Messemotto „Your direction IBM“ präsentiert das Unternehmen auf insgesamt über 3.500 Quadratmetern Ausstellungsfläche ein umfassendes Angebot an Business- und Infrastruktur-Lösungen. Besonderes Highlight am IBM Hauptstand in Halle 1, Stand F41/F51, ist ein Innovations-Showcase rund um das Thema „Luftfahrt“: Das Modell eines neuen Airbus A380 lädt die Besucher ein, sich Szenarien aus den Bereichen Sicherheit, RFID und Product Lifecycle Management anzusehen. Darüber hinaus zeigt das Forschungszentrum Jülich Beispiele aus dem Bereich Supercomputing. Als weiteren Höhepunkt präsentiert der Bereich IBM Forschung und Entwicklung Zukunftstechnologien wie den Cell-Prozessor und Marvel, eine neuartige Suchmaschine für Multimedia-Daten. In Halle 4, Stand A12, zeigen der IBM Bereich Mittelstand und mehr als 50 IBM Business Partner Lösungen für kleine und mittlere Unternehmen. Am Stand C61 in Halle 9 dreht sich alles um IT-Lösungen für den öffentlichen Dienst und den Gesundheitssektor. Darüber hinaus ist IBM mit zahlreichen Fachvorträgen im Communication Center der Messe und Sonderveranstaltungen vertreten.

...

Der Bereich IBM System Storage zeigt aktuelle Technologien für den Aufbau einer Information On Demand Infrastruktur. Dazu gehört die Unterstützung eines fortlaufenden Geschäftsbetriebs mit Funktionalitäten für hohe Verfügbarkeit und Disaster Recovery. Demonstriert wird, wie die IBM GlobalMirror-Technologie Daten auch über große Entfernungen hinweg sichert und wiederherstellt. Mit dem Komplettsystem IBM DR550 und Tape-Systemen zeigt IBM außerdem Möglichkeiten für den Aufbau einer Information Lifecycle Management-Lösung auf. Überdies erhalten die Messebesucher Einblick in Technologien zur Vereinfachung der Speicherinfrastruktur, wie den IBM SAN Volume Controller für die Virtualisierung von Speichernetzwerken.

...

Samstag, Januar 28

An infusion of fresh blood for storage

http://weblog.infoworld.com/thestoragenetwork/archives/005100.html

Are you keeping up with the never ending sequel of merges and acquisitions in Storage? It gets difficult to follow, doesn't it?
Perhaps even more difficult is trying to understand (or guess) what kind of an impact the operation will have on the patient. Why the medical metaphor? Because after all blending two companies into one is somewhat similar to doing transplant surgery and there is alway a certain degree of uncertainty about the results.
Granted, when there is a big disproportion in size (IBM acquiring CIMS Lab, Inc. comes to mind) it's unlikely that the receiving body (IBM, in this case) will be significantly changed because of the new parts.
However, what will happen if the patient goes through tens of similar operations with different donors? Will the recipient transmute into a new and different body?

...

Mittwoch, Januar 25

Going virtual cuts costs at Florida college - Reduced workload and easier management

http://www.techworld.com/networking/features/index.cfm?featureid=2179

By Lucas Mearian, Computerworld
Palm Beach Community College is going virtual: virtual servers, virtual network and virtual storage.
The college, which has 49,000 students and 2,000 employees, has nearly completed the roll-out of a server and storage consolidation project that will eventually replace scores of servers with a new mainframe and two blade systems.

Though not yet complete, the $1.6 million project has already allowed the school to reallocate its 60-person IT staff and cut data backups from 24 hours to just five hours.

...

Dienstag, Januar 24

Storage Clips: IBM adds e-mail support to CDP

By SearchStorage.com Staff23 Jan 2006 SearchStorage.com


Daily compilation of storage news:
IBM boosts CDPIBM announced that its Continuous Data Protection (CDP) for Files software will offer increased subfile backup for Lotus Notes and Microsoft Outlook files, new administrative tools to simplify management, as well as improved replication speed.
The new software also automatically senses which portions of massive end-user e-mail files change and moves only the modified pieces, rather than refreshing the entire archive every time the files change. A new settings panel allows users to "pause" replication, and lets users dictate how much bandwidth the software will use. Finally, a new remote space configuration field allows customers to control how many versions per file will be stored on remote targets.

...

Freitag, Januar 20

IBM Updates CDP (Continous Data Protection)

http://www.byteandswitch.com/document.asp?doc_id=87255&WT.svl=wire2_1

ARMONK -- IBM announced today a major upgrade to its Continuous Data Protection for Files software, offering increased subfile backup for Lotus Notes and Microsoft Outlook files and new administrative tools to simplify management.

The new software, which acts as a “data safety net” providing real-time backup of information stored on personal computers and servers, includes a number of capabilities designed to ease administration by improving replication speed and control.
Massive end-user email files present a challenge because it is not practical to backup the entire archive each time a change occurs. The new software automatically senses which portions of these large files change and moves only the modified pieces, greatly reducing network bandwidth and storage space at the target.

...

see also
http://www.sda-asia.com/sda/news/psecom,id,6737,nodeid,4,_language,Singapore.html

Samstag, Januar 14

College Majors in Virtualization

http://www.byteandswitch.com/document.asp?doc_id=86858&WT.svl=news2_1?doc_id=86858&WT.svl=news2_1

http://webwire.com/ViewPressRel.asp?SESSIONID=&aId=7982


Virtualization is one of those topics storage vendors talk a lot about while failing to convince customers.

Still, there are brave souls out there willing to give it a shot. Tony Parziale, CIO of Palm Beach Community College, has been virtualizing the college’s storage and servers since June. PBCC spent $1.6 million on IBM hardware, software, and services, to tie data kept on old mainframes and direct attached storage into one storage pool on a SAN.

PBCC’s new gear includes a zSeries 890 midrange mainframe running five SUSE Linux partitions, a 10-Tbyte IBM DS6800 connected to the mainframe, two BladeCenter blade server chassis, SAN Volume Controller (SVC) to bring all the storage into one pool, and Tivoli Storage Manager (TSM) for backup.

“It’s a virtual world,” Parziale says. “The way I look at it, we have one opportunity every four years to make a major architectural change. The easier solution would have been to stay with the technology we had. But we achieved a lot of costs savings. Going to Linux eliminated proprietary software that was costing us $30,000 a month in licensing. We also eliminated storage and server sprawl and could consolidate our IT staff.”

...

Mittwoch, Januar 11

CAMINOSOFT’S INFORMATION LIFECYCLE MANAGEMENT SOFTWARE SUPPORTS NEW IBM SYSTEM STORAGE DR550

CAMINOSOFT’S INFORMATION LIFECYCLE MANAGEMENT SOFTWARE SUPPORTS NEW IBM SYSTEM STORAGE DR550

http://www.caminosoft.com/pr/pr078.html

WESTLAKE VILLAGE, Calif--January 10, 2006 --CaminoSoft Corp. (OTC.BB:CMSF - News), a leading provider of Information Lifecycle Management (ILM) solutions for Microsoft Windows 2000/2003 and Novell NetWare & GroupWise environments, today announced that its enhancement of Managed Server HSM™ – Tivoli Edition operates with IBM’s System Storage DR550.

CaminoSoft’s solution enables customers to leverage the power of intelligent storage and file management with IBM’s newest data retention offering, helping customers address data archiving, corporate governance, and regulatory compliance requirements.

...
--> read more from caminosoft
--> read more from IBM

Dienstag, Januar 10

Reporter's Notebook: Storage 2006

Briefs by Lucas Mearian , senior editor
http://www.computerworld.com/managementtopics/management/story/0,10801,107262,00.html

JANUARY 02, 2006 (COMPUTERWORLD) - Am I seeing 3-D?
IT managers should put holographic storage on a shortlist of emerging technologies to watch in 2006. The first production-grade products are expected to ship in the first quarter. This DVD-like storage medium uses a laser beam to write a hologram inside the substrate material of a platter. But unlike a DVD, where only the surface of the disk is burned, holographic images are recorded throughout the disk material and the transparent disks are enclosed in a cartridge. Random reads mean holographic storage will blow away digital tape in data restore speeds. With prices expected to start around $100 per disk, capacities beginning at 300GB and quickly soaring past 1TB per disk, and 160MB/sec. data transfer rates, you'd be crazy not to look at this technology -- or, at the very least, test it. Right now, holographic storage appears best suited for long-term data storage as well as nearline storage, because it's removable and is expected to be fitted for a standard cartridge that will work in tape libraries.
...

Discovering SRM

Storage resource management products have reached a certain level of maturity, but they still need standardization to work well in heterogeneous environments. Look for advancements in standards in 2006.

...

Tiered storage top project for '06

Tiered storage top project for '06
http://searchstorage.techtarget.com/originalContent/0,289142,sid5_gci1145461,00.html

By Jo Maitland, News Director
16 Nov 2005 | SearchStorage.com

Creating a tiered storage infrastructure was voted the No. 1 project for 2006 by users at the Storage Decisions show in Las Vegas, but many had concerns about how to implement it.
According to an audience response survey taken by approximately a hundred of the 350 attendees, reclassifying data and working out the return on investment were the hardest aspects of a tiered storage project.

"I can't get a real cost model on it, and until I do my CFO [chief financial officer] isn't interested," said a lead storage architect at a West Coast university. This sentiment was echoed by over half the respondents to the survey. The next biggest stumbling block, according to 42% of the respondents, was the issue of placing data into a tiered storage environment with no real way of automating the movement of data.

Close to 40% of the users surveyed said that they were committed to developing a tiered storage plan now; 30% said they were already in production with a tiered architecture; and the remaining 30% said they were considering it but were not quite convinced.

Over 60% of respondents said that they had implemented two or three tiers of storage; 21.4% had built four tiers; 7.1% had built five; 3.6% had build six or more tiers and an equal number had just one tier.

Managing the explosive growth of unstructured files was the biggest motivator for moving to tiered storage; e-mail came next, followed by databases.

Data archiving

At least half the respondents are working on an archiving strategy alongside their tiered storage project. But 44% of those surveyed said they weren't sure what data should be archived or for how long, while 33% said that they know what needs to be saved but haven't figured out the best way to do it.
Almost half the respondents said they are in the middle of creating a new policy for archiving; while 36% said that they didn't know if their company had a formal archiving policy. Roughly 30% said that they were budgeting for compliance, which would include an archiving component.

IBM: Kontinuierliche Backups auch unterwegs

IBM: Kontinuierliche Backups auch unterwegs
http://www.golem.de/showhigh2.php?file=/0508/40070.html

Continuous Data Protection soll nicht nur Notebook-Daten schützen
IBM will mit einer neuen Software die auf Notebooks gespeicherten Informationen vor Computerviren, Datenkorruption und versehentlicher Löschung schützen. Dazu setzt IBM bei "Continuous Data Protection" auf Echtzeit-Backups.

Zwar bietet auch ein ortsunabhängiger und breitbandiger Zugang zum Internet die Möglichkeit eines Daten-Backups, dabei fehlt aber die Technik, um die Daten auch zwischen zwei Backup-Vorgängen zu sichern. Dafür soll IBM Continuous Data Protection sorgen, das auch mit dem Tivoli Storage Manager zusammenarbeitet, der zudem eine Enterprise-Disaster Recovery-Lösung enthält.

Die Software soll so für eine kontinuierliche Datensicherung nicht nur bei Notebooks sorgen. Die Software soll auch auf Desktops und Datei-Servern wertvolle Dienste leisten können.

Dabei erzeugt "Continuous Data Protection" innerhalb von Millisekunden eine Kopie der jeweils bearbeiteten Daten auf dem lokalen System und schickt eine weitere an einen Remote-Server, sobald eine Verbindung möglich ist. Die Wiederherstellung defekter oder gelöschter Dateien soll so auch unterwegs möglich sein, so IBM. Dabei rühmt sich IBM, allein diese Software mit zehn Patenten gesichert zu haben.

Die neue Software soll ab Oktober 2005 für 35,- US-Dollar pro Laptop und für 995,- US-Dollar pro Serverprozessor erhältlich sein. (ji)

--> IBM CDP Seite

CERN und IBM: Schreib-Leserate auf Platte von über 1 GB/s

CERN und IBM: Schreib-Leserate auf Platte von über 1 GB/s
http://www.golem.de/showhigh2.php?file=/0503/37208.html

Speichervirtualisierungssoftware für den Large Hadron Collider
CERN, die europäische Organisation für Teilchenforschung und IBM haben mit der IBM Speichervirtualisierungssoftware in einem internen Leistungstest bei CERN extrem hohe Leistungswerte erreicht. Der Datenübertragungstest war Teil von Vorbereitungen, die derzeit im CERN stattfinden, um die Anforderungsprofile des Large Hadron Collider (LHC) Computing Grids auszuloten, des derzeit weltweit größten wissenschaftlichen Computing Grids.

Der Large Hadron Collider wird, wenn er 2007 als extrem großer Teilchenbeschleuniger in Betrieb gehen wird, enorme Datenmengen erzeugen: Mit bis zu 15 Millionen GByte pro Jahr (15 Petabyte) wird gerechnet - das entspricht annähernd 3,2 Millionen DVDs.

Eingesetzt wurde die IBM-Speichervirtualisierungssoftware TotalStorage SAN File System. Die internen Lasttests ergaben bei CERN eine Schreib-/Leserate auf Platte von über 1 GByte/Sekunde bei einer gesamten Eingabe-/Ausgabe-Datenmenge von über einem Petabyte in einem Zeitraum von 13-Tagen.

Der durchgeführte Test umfasste das Schreiben und Lesen von über 300.000 Dateien - jeweils in 2 GByte Größe - in den von ihr verwalteten Speicher. Die Speicherhardware bestand aus 15 iSCSI-Targets. Eingesetzt wurden 12 Schreib- und 12 Lese-Clients, mit 4 Lese-Threads und entweder vier oder sechs Schreib-Threads pro Client. Alle Clients und der iSCSI-Speicher waren mit einem 1 GBit-Ethernet-Netzwerk verbunden. (ad)

Aperi: IBM will Storage-Management öffnen

Aperi: IBM will Storage-Management öffnen
http://www.golem.de/0510/41236.html

Speicherindustrie-Firmen formieren neue Open-Source-Community
Unter dem Projektnamen "Aperi" will IBM zusammen mit Brocade, Cisco, Computer Associates, Engenio, Fujitsu, McData und Network Appliance eine neue Storage-Management-Plattform entwickeln. Auf Basis von offenen Standards und Open Source soll für Kunden die Auswahl an Storage-Infrastruktur-Software erhöht werden.

Die Mitglieder der Community sollen Teile ihrer Software dem Projekt zur Verfügung stellen und so im Gegenzug auf die Vorteile einer gemeinsamen Plattform für die Entwicklung von Speichersoftware-Anwendungen zurückgreifen können. Als erstes Unternehmen plant IBM, der Open-Source-Community Teile seiner Technik für das Management der Speicherinfrastruktur zur Verfügung zu stellen.

Aperi soll auf bereits existierenden offenen Standards im Storage-Bereich aufbauen, darunter auch auf der von der SNIA (Storage Networking Industry Association) entwickelten Storage Management Initiative Specification (SMI-S), einem Standard für interoperable Speicher-Management-Technologien.

"Aperi" leitet sich dabei vom lateinischen Wort für "öffnen" ab und soll als unabhängige und gemeinnützige Organisation, getragen von einer Vielzahl von Herstellern, etabliert werden. Details zur Organisationsstruktur sollen aber erst in Kürze veröffentlicht werden. Die dabei entstehende Plattform soll in jedem Fall kostenlos zur Verfügung stehen. (ji)

--> Aperi Storage Community

Montag, Januar 9

IBM erweitert Angebot bei Speichervirtualisierung

IBM erweitert Angebot bei Speichervirtualisierung
10.10.2005 um 16:34 Uhr
http://www.computerwoche.de/nachrichten/567266/index.html

MÜNCHEN (COMPUTERWOCHE) - IBM stellt heute neue Produkte im Bereich Speichervirtualisierung und System-Management vor. Kernstück ist die Software "Virtualization Engine TS7510", die sich nach Angaben von Director of Total Storage Pete McCaffrey nicht nur an Mainframes, sondern auch an Unix- und Windows-Systeme anschließen lässt. Systemverwalter können damit Daten auf eine virtuelle Bandbibliothek auf einem Server sichern und erst später physikalisch auf Band sichern. Damit lassen sich laut Big Blue Backup und Restore unter Umständen erheblich beschleunigen.

Eine Single-Node-Einstiegskonfiguration mit 5 Terabyte Kapazität ist ab rund 175.000 Dollar zu haben. Im Dual-Node-Maximalausbau mit bis zu 46 TB Speicherplatz müssen Kunden ab rund 695.000 Dollar berappen. Die TS7510 soll weltweit ab 28. Oktober zu haben sein.

Mitte November folgt dann Release 3.1 des "TotalStorage SAN Volume Controller", der ab 43.000 Dollar erhältlich sein wird. Er skaliert über 1000 bis zu vier Mal mehr Servern als zuvor und soll außerdem 50 Prozent mehr Systemleistung bieten. Anwender können damit laut McCaffrey ihre Copy-Services in den Arrays behalten oder ins Netz verlagern - zuvor mussten sie stets die Dienste des San Volume Controller verwenden.

Ebenfalls auf dem Weg ist die Systems-Management-Software "Director 5.10", die Ende Oktober für xSeries und BladeCenter und im vierten Quartal für iSeries, pSeries, zSeries und System z9 erscheint. Ende des Monats wird IBM dem Vernehmen nach ankündigen, dass sich damit auch Intel-kompatible Systeme anderer Hersteller überwachen und steuern lassen. (tc)

IBM's exec sees 'tidal wave of data' coming

IBM's exec sees 'tidal wave of data' coming
http://www.cio.de/news/cio_worldnews/815963/index1.html

Andrew Monshaw, general manager of IBM's Storage Systems and Technology Group for the past year, spoke with Computerworld Wednesday about a variety of storage issues. He said he sees no end in sight for tape storage because of its value proposition, feels that virtualization is king and is still unsure where Microsoft's venture into storage is headed. Monshaw also said the open-source software development group Aperi, formed in October with eight other vendors, should produce the first version of a common storage management platform by mid-2006. That platform is designed to allow users to manage storage systems from multiple vendors through a single interface.
Excerpts from that interview follow:

...

Freitag, Januar 6

Der lange Weg zum Standard

Der lange Weg zum Standard
http://www.speicherguide.de/magazin/storagemanagement.asp?todo=de&theID=191

Storage-Management wird zum Buzzword der Speicherbranche. Vermutet man doch in der Disziplin den Königsweg zu weniger Kosten und mehr Effizienz innerhalb der Storage-Infrastruktur. Doch bevor solche Effekte sich einstellen können, muss zunächst die Standardisierung ein Erfolg werden. Geschieht dies, und derzeit deutet vieles darauf hin, dürfte das Folgen für den gesamten Storage-Markt haben.

...

Top-10-Liste ungewöhnlichste Datenverlustfälle für 2005

Top-10-Liste ungewöhnlichste Datenverlustfälle für 2005
http://www.speicherguide.de/magazin/egarots.asp?todo=de&theID=4652

[01.01.2006] (eh) – Ein vom Hund zerbissener USB-Stick, eine entsorgte Festplatte eines RAID-Verbunds, ein mit einem Hammer attackierter PC, ein von Kakerlaken zerfressener Notebook – das wahre Leben beim Umgang der Menschen mit der IT und ihren Daten bringt manchmal skurrile Begebenheiten mit sich. Der Datenrettungsspezialist Kroll Ontrack hat eine Top-10-Liste der ungewöhnlichsten und amüsantesten Missgeschicke beim Umgang mit dem Computer im Jahr 2005 zusammengestellt.

Die Vorfälle stammen aus dem Alltag, betont der Böblinger Datenretter. Bei all diesen bizarren Datenverlustfällen sei es dennoch gelungen, die Daten wiederherzustellen.

»Kroll Ontrack erhält jedes Jahr mehr als 100.000 Anfragen für Datenrettung, so dass wir eine nette Sammlung von sonderbaren Datenverlustfällen zusammenbekommen« erklärte Peter Böhret, Managing Director bei Kroll Ontrack. »Obwohl die Beispiele in der diesjährigen Liste zugegebenermaßen ausgefallen und extrem sind, zeigen sie dennoch einen wichtigen Punkt auf: Eine Rettung der Daten ist möglich, auch wenn sie in manchen Fällen auf den ersten Blick unmöglich erscheint.«

Hier jetzt nun die 2005er Kroll-Ontrack-Top-10-Liste der interessantesten Datenverlustfälle:

Platz 10: Dr. Phil. unter Strom – Ein Doktorand hatte seine gesamte Dissertation aufgrund eines Stromausfalls verloren. Beim plötzlichen Spannungsabfall am PC wurde ein USB-Flash-Laufwerk beschädigt, auf dem die Forschungsarbeit gespeichert war. Wäre die Datenrettung nicht erfolgreich gewesen, hätte der Doktorand nicht promovieren können.

Platz 9: Kunst im freien Fall – Beim Umräumen ihres Büros fiel einer Frau versehentlich ein zweieinhalb Kilo schwerer Topf auf ihr Notebook und traf zielsicher die Festplatte. Darauf gespeichert waren ein Manuskript, an dem sie fünf Jahre lang gearbeitet hat, und eine Sammlung 150 Jahre alter Bilder zur Ahnenforschung. Alles wartete noch auf seine Veröffentlichung.

Platz 8: Ehe-Disaster-Recovery – Ein Familienvater löschte sämtliche Babyfotos seines Kindes, als er versehentlich die falsche Taste an seinem PC drückte. Seine Frau drohte mit der Scheidung, falls er die Bilder nicht wieder finden würde.

Platz 7: Hundsgemein – Ein Kunde lies seinen Speicher-Stick unbeaufsichtigt, woraufhin sein Hund diesen als Knochenersatz missbrauchte. Kroll Ontrack konnte alle Daten retten, trotz Biss-Spuren und eines Lochs im Speicher-Stick.

Platz 6: Nicht zur Nachahmung empfohlen – Ein Hobby-Bastler versuchte seinen Computer selbst zu reparieren, überlegte es sich dann aber doch noch und sendete das komplett zerlegte Laufwerk an Kroll Ontrack. Jedes Einzelteil war in einem separaten Tütchen verpackt.

Platz 5: Time-out – Ein Uhrmacher hatte einen Systemabsturz und verlor alle seine digital gespeicherten Designentwürfe. Kroll Ontrack hat im wahrsten Sinne des Wortes rechtzeitig die Daten wiederherstellen können, unmittelbar vor einer internationalen Messe.

Platz 4: Probebohrung – Bei einer versuchten Datenwiederherstellung von einem RAID-Festplattenverbund stellten die Administratoren fest, dass eine Festplatte fehlte. Der Kunde fand heraus, dass das Laufwerk entsorgt wurde. Entsprechend den Datenschutzvorschriften der Firma war es vorher ordnungsgemäß durchbohrt worden.

Platz 3: Verwaiste Trainer-Daten-Bank – Der Trainer eines professionellen US-Baseball-Teams legte auf seinem Notebook wichtige Trainingsinformationen ab. Als sein Notebook beschädigt wurde, war eine Datenrettung nötig, damit der Trainer weiter auf die Daten über Spieler-Fitness zugreifen und sich über den Stand seines Talent-Scouting informieren konnte.

Platz 2: Massiver Hardware-Einsatz – Eine frustrierte Schreibkraft attackierte ihren PC mit einem Hammer. Nachdem die Ingenieure den PC in Empfang nahmen, war der Abdruck des Hammers deutlich auf dem Gehäuse zu erkennen.

Und schließlich …

Platz 1: La Cucaracha – In der Hoffnung wertvolle Unternehmensinformationen zu retten, zog ein Kunde ein seit zehn Jahren ungebrauchtes Notebook hervor. Als die Ingenieure das Gerät öffneten, lagen Hunderte von toten Kakerlaken im Gehäuse.

Kroll Ontrack >>

IBM wirft HP bei Uniklinik Pittsburgh raus

IBM wirft HP bei Uniklinik Pittsburgh raus
http://www.speicherguide.de/magazin/aktuelles.asp?todo=de&theID=4658

[03.01.2006] (eh) – Das Medical-Center der Universität Pittsburgh (UPMC) setzt für seine neue On-Demand-Umgebung auf IBM-Speichersysteme. Die neue Speicherlösung ersetzt laut IBM das bisherige HP-basierte Speichernetzwerk und gelte als ein wichtiges Element der Strategie des UPMC für die elektronische Patientenakte. Das UPMC ist eines der renommiertesten Medical-Centers in den USA, zum Zentrum gehören 19 Kliniken und 40.000 Mitarbeiter.

Die neue mehrstufige Speicherumgebung besteht aus drei »IBM TotalStorage DS8300«-Festplattensystemen, auf denen die sensiblen und wichtigen Daten gespeichert werden – von Patientendaten bis hin zu den Gehaltsabrechnungen. Eines der Systeme ist für Disaster-Recovery-Zwecke in einem vier Kilometer entfernten Rechenzentrum untergebracht. Zusätzlich kommen zwei »IBM TotalStorage DS6800«-Speicherserver für Midrange-Anwendungen zum Einsatz.

Die neuen Systeme verbessern die Performance und die Antwortzeiten der elektronischen Patientenakten – nach Angaben von IBM ist das DS8300-System sechsmal so schnell wie das bisherige Speichersystem. Kurze Antwortzeiten seien im Krankenhausbetrieb besonders wichtig, beispielsweise wenn es um die Ausstellung elektronischer Rezepte geht. Darüber hinaus reduziere das konsolidierte Speichernetzwerk die ungenutzten Kapazitäten auf ein Minimum und benötige nur noch halb so viel Platz wie das vorher eingesetzte System.

An Software kommen bei dem Projekt »IBM Tivoli Storage Manager« für Backup und »IBM TotalStorage Productivity Center«-Lösungen für Disks, Daten, Fabric und Replication zum Einsatz. IBM betont, dass die Organisation derzeit ihr System auf AIX, Windows und Linux konsolidiere, und in diesem Zusammenhang mit Beginn des neuen Jahres 2006 auch die Implementation der Virtualisierungs-Software »IBM TotalStorage SAN Volume Controller« andenke.

Donnerstag, Januar 5

Enterprise Systems Journal: Data Archiving vs. Data Backup: A Closer Look

Enterprise Systems Journal: Data Archiving vs. Data Backup: A Closer Look
Savvy organizations are embracing data archiving as a means to reduce costs, improve performance, and satisfy compliance requirements
By Stephen Swoyer, November 1, 2005
http://www.esj.com/enterprise/article.aspx?EditorialsID=1544

To a storage manager, the verbs “backup” and “archive” mean very different things. To most of the rest of us, they’re frequently used to describe the same action—namely, the process of moving data from an online storage tier to near-line or off-line storage. But backing data up and archiving data are distinct technology practices that have very different requirements.

They also have very different advantages. To the extent that organizations are able to embrace data archiving as a means to reduce costs, improve performance, and—of course—satisfy regulatory compliance requirements, it’s a potentially important distinction.

“In general, our customer base does not implement archiving on as wide a scale as they could,” says Kami Snyder, market manager for information lifecycle management (ILM) solutions with IBM Corp. “There is a difference between backup and archiving and customers don’t necessarily call out the difference in their own mind.”
...

SearchStorage: IBM reports benchmarks

SearchStorage: IBM reports benchmarks
December 15, 2005

IBM announced that its storage virtualization product, the IBM TotalStorage SAN Volume Controller, and one of its enterprise disk subsystem storage products, the IBM TotalStorage DS8300, have achieved top scores for performance as measured by the Storage Performance Council's latest benchmark. The SPC-2 benchmark consists of three application-oriented sequential I/O performance tests, which include large file processing, large database queries and video on demand.

The IBM TotalStorage SAN Volume Controller demonstrated the best sequential throughput producing an average of 3,517 SPC-2 MBps. The IBM TotalStorage DS8300 garnered the number two overall score in the test with a submitted result of 3,217 SPC-2 MBps.

-> Storage Perfomance Council
-> SPC2 and SPC1 Results

2005 - Servers, storage -- virtualise this

China Martens, IDG News Service

23/12/2005 07:11:54

If you only had a single word to describe what 2005 meant in the world of servers and storage, that word would be "virtualization." Announcements from IT vendors about what they were virtualizing or planned to virtualize were rife throughout the year.
Virtualization x86 server market leader VMware was active with new product releases and partnerships as well as opening up a portion of its software to third parties, all part of the company's grand plan to make its products ubiquitous. Meanwhile, XenSource became more of a serious competitor to VMware as it unwrapped both Xen 3.0, the latest version of its open-source virtualization software, as well as the beta version of what will be its first commercial product, XenOptimizer, a set of tools to simplify server virtualization.

While server virtualization is well entrenched largely thanks to the pioneering efforts of VMware, some vendors, including VMware's own parent EMC are moving more slowly into offering storage virtualization. So far, EMC's storage virtualization strategy has yet to fully gel. What is known is that it will involve Invista, its product for SAN (storage area network) virtualization, and the RainStorage network file virtualization technology EMC acquired through its purchase of Rainfinity.

EMC doesn't expect the storage virtualization market to really get going until late 2006 at the earliest, which differs from rival IBM's claims that many customers are already using its storage virtualization software TotalStorage SAN Volume Controller. IBM even appointed a vice president of virtualization in November to oversee the company's efforts in across-the-board virtualization. Expect more to come out of the storage virtualization partnership between IBM and Network Appliance next year.
...

Mittwoch, Januar 4

Metadaten werden standardisiert

Die Storage Networking Industry Association ist auf bestem Weg zu einer einheitlichen Schnittstelle für die Referenzdaten von gespeicherten Informationen
....