onsdag, december 09, 1992

Robodoc fattar kniven

(Publicerad i tidningen Medicin Ekonomi Teknik, dec 1992).
 
Den 7 november 1992 torde ha en given plats i den medicinska historien. Det var första gången en robot opererade på en människa, i detta fall en 64-årig man som fick en höftledsprotes på Sutter General Hospital i Sacramento i Kalifornien.
-För mig som kirurg innebär Robodoc en stor lättnad, säger doktor William Bargar, en av USA:s främsta specialister på knä- och höftledsoperationer.


-Vi har nu genomfört fyra operationer och jag är just nu på väg till den femte, säger doktor Bargar, som ringer mig från sin biltelefon kvart över sex på morgonen.
-Det är lite för tidigt att utvärdera operationerna, men vi vet att samtliga patienter fått åka hem och det lite tidigare än normalt. De har inte upplevt någon smärta efter ingreppet och har god rörlighet. Man ska dock komma ihåg att det rört sig om relativt unga patienter, de har varit i femtioårsåldern.
-Vårt mål är än så länge bara att visa att de inte kommer att må sämre med denna teknik, än med konventionella metoder, säger han.
Roboten i fråga heter Robodoc och har byggts Integrated Surgical Systems (ISS) som i sin tur är en avknoppning från dataföretaget IBM:s berömda forskningslabb, Watson Research Center.

De fyra hittillsvarande operationerna med Robodoc har tagit ungefär fem timmar styck, vilket är längre än för motsvarande operationer utan robotstöd. Doktor Bargar förklarar det med att man ännu är ovana vid tekniken och att det därför tar längre tid att sätta upp systemet.
Operationen förbereds genom att tre nålar sätts in i patientens höftben. Sedan scannas höftpartiet med hjälp av datorstödd röntgentomografi. Resultatet blir en tredimensionell bild som sedan läses in i Orthodoc, den del av som används för att planera operationen.

Själva operationen inleds med att - om uttrycket ursäktas - den mänskliga kirurgen öppnar patienten och sågar av höftledskulan. Han frilägger sedan de tre nålarna, som ska agera signalfyrar till Robodoc, och fixerar höftbenet så att det sitter i rätt läge för ingreppet. Därefter placeras Robodocs robotarm i läge för att kunna sätta igång och borra. Kirurgen startar så roboten och kan under hela operationen när som helst nödstoppa processen. Han kan också följa operationen på Robodocs bildskärm. Efter borrningen avlägsnas roboten, protesen sättes in och patienten kan sys ihop.

-För mig som kirurg innebär Robodoc en stor lättnad. Det är mycket svårt att få en riktigt bra passning med de redskap vi har, som är relativt grova. Under operationen försöker du avgöra vilken storlek på protesen som är bäst för patienten. Det är ett svårt val, eftersom en större protes kan spräcka höftbenet, medan en för liten protes kan glappa, säger doktor Bargar.
 
Operationen är därför mycket krävande både vad gäller omdöme och kirurgisk skicklighet. Det är en situation med hög grad av stress där även den skickligaste kirurg kan råka ut för komplikationer.
-Roboten kan däremot göra ingreppet mycket precist, samtidigt som jag kan kontrollera och planera hela operationen på arbetsstationen.
-Som kirurg kan du nu på ett helt annat sätt lita på den planering du gjort före operationen. Detta är något vi hittills saknat. De flesta kirurger förbereder sig genom att studera röntgenplåtar och ta ställning till vilken storlek på protesen de tror är bäst. Men de litar i själva verket mest till sin instinkt som kirurger, för de vet att de bara kan göra en grov uppskattning med hjälp av röntgenbilder.
-De har helt enkelt inte tillräckligt med information, men på det här nya sättet har du en massa information. Kirurgen kan studera tredimensionella bilder och kan nästan med 100 procents säkerhet veta att hans planeringen kommer att hålla i operationssalen.

På frågan om hans förtroende för Robodoc är så stort att han själv skulle låta den operera på sig, svarar doktor Bargar:
-Utan tvekan! En av de avgörande fördelarna med robotar är att den i stort sett eliminerar mänskliga misstag. Det är därför man använder dem i industrin, säger doktor Bargar, som f ö har tog mastersexamen i ingenjörskonst innan han blev läkare.
-De är pålitliga, arbetar långa pass och kan upprepa sig oupphörligt, medan även den bästa kirurg gör misstag. Robotikforskningen har kommit såpass långt idag, att vi kan lita på att dessa robotar verkligen gör det vi programmerar dem att göra.
-För egen del skulle jag faktiskt föredra att bli opererad av en robot vad gäller denna del av operationen. Sedan skulle jag förstås vilja försäkra mig om att min kirurg har de rätta kvalifikationerna för resten av operationen, säger doktor Bargar, som tror att vi snart kommer att få se robotar utföra många fler typer av kirurgiska ingrepp.

Kommer användningen av robotar att förändra vår bild av kirurgen?
-Nej, det tror jag inte. Kirurgen spelar fortfarande nyckelrollen i operationen. Jag ser det snarare som ett teknologiskt framsteg, som gett kirurgen ett nytt redskap, där han behöver mer precision eller möjlighet att upprepa en process.

Hans Sandberg

Bakgrund:
Sutter General Hospital
Ett allmännyttigt privat akutsjukhus i Sacramento, Kalifornien. Det är efter sin ombyggnad 1987 ett av USA:s modernaste sjukhus. Det har 318 patientplatser.

Med eller utan cement...
Eftersom det är svårt för en kirurg att i patientens höftben exakt matcha formen på protesen, brukar man fylla ut mellanrummen med en särskild lösning, cement på engelska.
-För lågriskpatienter, som är över 65 och inte överviktiga är cement en bra lösning, säger doktor Bargar. Cementet håller i minst 15 år vilket bör räcka. Vi är mer tveksamma till cement då det gäller yngre patienter, i 40-50-års åldern, som är mycket mer fysiskt aktiva och kan väntas leva längre. För dem använder vi oftare cementlösa operationer. Det vart också populärt att använda cementlösa operationer under 80-talet, men det är en teknik som bland annat resulterat i höftsmärtor och sprickor i höftleden. Trenden svänger därför tillbaks mot att använda cement igen.
Vid cementlösa operationer är det desto viktigare att passningen mellan hålet i höftleden och protesen är så bra som möjligt, vilket kan bli ett skäl för att använda robotar som Robodoc.

Robodocs två beståndsdelar
1. En femaxlad kirurgisk robot på en rörlig plattform, tillverkad av det japanska företaget Sankyo Seiko. Denna robot är fösedd med trycksensorer, monitorer som följer patientens benrörelser och ett antal verktyg för själv operationen. Till systemet hör också en bildskärm, på vilken läkarna kan se simuleringar av operationen och annan relevant information.
2. En arbetsstation för pre-operativ analys, Orthodoc. Denna består av en mycket kraftfull dator, en IBM RS/6000, försedd med en högupplösande bildskärm, på vilken man med hjälp av speciella datorprogram kan studera patienten och den tänkta protesen i tre dimensioner. Informationen om patienten skaffas genom röntgentomografi. Resultatet av analysen på Orthodoc kan senare överföras till Robodocs kirurgiska robot.

tisdag, november 10, 1992

Möte med Bob Kahn, en av Internets grundare (1992)

(Denna artikel publicerades i DataTeknik Nr 14, 1992.)
Robert E. Kahn, Mr. Gigabit:
USA behöver en nationell datasatsning

Dr. Robert E. Kahn är en av USA:s ledande experter på datanät. Han var en av hjärnorna bakom Arpanet, som lade grunden för det internationella forskningsnätet Internet. Han är också en nyckelfigur i skapandet av ett nationellt gigabit-nät, dvs ett datanät som klarar över en miljard binära siffror per sekund. Hans Sandberg träffade honom i Reston, Virginia.

Robert E. Kahn
Robert E. Kahn var med och
skapade Internetprotokollet TCP/IP.
Foto: Hans Sandberg
-Jag vet inte om du spelar golf, säger Kahn en bit in i vår diskussion om hur USA ska kunna bygga en ny nationell infrastruktur för information. Han fortsätter med att beskriva hur man skulle kunna sända en mängd parallella dataflöden från en golfturnering och låta tittaren välja mellan dem.
-Du skulle kunna ha 156 kameror, en för varje tävlare, eller kanske en för varje "fairway.” På så sätt skulle du kunna producera ditt egen bevakning av turneringen och följa din favoritspelare eller ditt favoritlag. Priset är att du binder upp en god bit av nätverket, men det skulle man kunna lösa genom att de tittare som vill ha denna tjänst delar på kostnaden.

Kahn kan konsten att tala med bönder på bönders vis och kanske är det därför han blivit en av USA:s effektivaste nätpredikanter. När jag ber honom definiera vad han menar med en nationell infrastruktur för information börjar han lexikaliskt:
-En infrastruktur är den underliggande grundvalen, själva basen för en organisation eller ett system, säger han och pekar på exempel som våra nät av vägar, elektricitet, vatten och avlopp, samt telenätet.

Produkter som kan produceras och säljas bit för bit, säljs på marknaden. Vi köper eller hyr våra bilar, telefoner och elektriska apparater, men de skulle vara av ytterst begränsat värde om vi inte också hade ett vägnät, ett telenät, ett elnät osv.
Dessa infrastrukturer tar vi för givna när vi köper våra bilar och TV-apparater, men de kom inte dit av sig själva. Eftersom det ofta rör sig om mycket stora investeringar och det är svårt att dela upp notan för dem finansieras de vanligen skattevägen.

Egendomligt nog kan vi inte ta för givet att det ska finnas en infrastruktur när vi köper ett datorsystem. Trots PC-revolutionen och explosionen av företags- och organisationsvisa datanät, är de flesta datorer och nätverk bara isolerade öar och ögrupper i informationshavet. Och datatrafiken är -- trots fiberoptiken -- ett mischmasch av ibland gammalmodiga och ofta inkompatibla tekniker. Om du ringer upp en databas med din PC har du förmodligen ett modem som klarar 1200, 2400 eller 9600 binära siffror per sekund (bps). Det finns avancerade modem som klarar 19,2 eller 38,4 kilobits (Kbps) och den grundläggande ISDN-standarden tillåter 64 Kbps. Lokala datanät klarar kring 10 miljoner bits (Mbps) över koaxialkabel. Fiberoptiska lokala nät (FDDI) kan nå upp till 100 Mbps. Avancerade forskningsnät som NSFnet, vilket ingår i Internet, klarar 1,5 Mbps och håller på att uppgraderas till 45 Mbps. På sikt ska dessa forskningsnät ingå i ett nationellt utbildnings- och forskningsnät av gigabitklass kallat NREN.
Flera olika aktörer och trender strålar samman i frågan om gigabitnät. Telefonnätet uppgraderas successivt till fiberoptik, ffa då det gäller långdistans trunklinjer och linjer till företag och organisationer. AT&T:s nationella trunklinjer är t ex ett gigabitnät (1,7 Gbits) sedan tio år tillbaka. IBM har nyligen börjat samarbeta med Time-Warner och det största kabeltevebolaget TCI, för att driva upp kabelnätets koaxialkablar till gigabitnivå. En del regionala telebolag har program för att under de närmaste decennierna dra fiberoptik till hemmen. Om och när de får klartecken att börja sälja informationstjänster kan vi få en explosion av investeringar i optiska fibersystem.    

Men det krävs samordning om det hela inte ska stanna på halva vägen, eller urarta till en fiberoptisk spaghetti. Bara den federala regeringen har tillräckliga ekonomiska och organisatoriska resurser för detta.
-Du behöver en arkitekt, eller en grupp av arkitekter som övervakar bygget av systemet, säger Kahn, som också efterlyser en ny framtidsvision.

-När vi först föreslog ett gigabitnät fanns det inga maskiner som kunde sända eller ta emot data i den hastigheten. Ingen trodde att slutanvändarna skulle vara intresserad av detta. Möjligen skulle man kunna använda tekniken för att multiplexa data när man sänder dem över trunklinjerna, men iså fall behövde man inte göra någonting, för utvecklingen gick åt det hållet ändå.
Detta är en viktig distinktion, för kärnan i Kahns vision är inte att packa om (multiplexa) dagens datatrafik och skeppa den i expressfart mellan samma gamla datorer, eller att öka utbudet av kabelteveprogram.

Gigabitnäten öppnar dörren för nya typer av databehandling. Vi kan få virtuella forskningslabb där en serie superdatorer från kust till kust tacklar olika aspekter av samma problem, som om de vore en enda maskin. I sådana metadatorer blir varje superdator en processor i ett heterogent system.
-Vår idé var att engagera dataföretagen och sedan få kommunikationsföretagen att ta fram nya breda datanät (WAN=Wide Area Nets) och sedan se vad forskningsvärlden kan göra med denna kapacitet, säger Kahn.

Här hamnar vi dock inför det klassiska problemet om hönan och ägget:
-Skulle du, om du var i kommunikationsbranschen, bygga ett nationellt gigabitnät utan att ha någon idé om vad man kan göra med det? I synnerhet som kostnaden för denna investering kan komma att ligga på många, kanske hundratals miljarder dollar.

Sak samma för databranschen: Varför ska företagen investera i gigabitprocessorer och bussar om det inte finns vare sig datanät eller applikationer för dem?
De fem pilotprojekt, eller testbäddar för gigabit-teknik som CNRI anlägger på uppdrag NSF och Darpa, är ett försök att komma runt detta dilemma.

-Genom att bygga dessa experimentella nät kan vi få databranschen att bygga experimentella datorer med avancerade gränssnitt. Det kan i sin tur leda till experimentella applikationer som ingen kunnat föreställa sig tidigare, säger Kahn.
-Det är för tidigt att säga så mycket mer än att vi hoppas lära oss vad folk ska kunna göra med sådana nät, hur arkitekturerna kan komma att se ut; både nätens, datorernas och programvarans. Det kommer att ge oss ett stort försteg när vi drar upp arkitekturen för en nationell infrastruktur.

CNRI:s betoning av applikationer med superdatorer betyder inte att gigabitnätet är en exklusiv angelägenhet för superdatoranvändare.
-Grunden för en nationell infrastruktur blir ett nät med en glidande skala av hastighet. En del kommer att nöja sig med låga hastigheter, andra kommer att kräva mycket mer.

IBM:s, Time-Warners och kabeljätten TCI:s avslöjade i våras att de arbetar på att göra kabeltevenätet till ett gigabitnät.
-Det kan bli ett sätt att sprida gigabit-tjänster, kommenterar Kahn, men deras experiment i Kanada gäller ett lokalt kabeltevesystem. Om du ska jämföra det med ett nationellt nät, måste du diskutera hur man knyter samman alla lokala kabeltevesystem och om du verkligen vill direktsända data till alla tittare.

Med tanke på presidentvalet frågar jag om han ser några större skillnader mellan partierna i frågan om bygget av en ny infrastruktur. Svaret blir mycket diplomatiskt. 

-Regeringen har hittills uttalat sitt stöd, men vi har inte sett av något omfattande ekonomiskt stöd. Både demokraterna och republikanerna har sagt, att det behövs investeringar i forskning och infrastruktur. Frågan är inte vem som kommer att ge mest stöd, utan vem som verkligen kan se till att det händer saker.
-Al Gore Jr. har varit mycket explicit. Den republikanska plattformen säger å andra sidan att regeringen nästan inte ska göra någonting, utom att investera i sådana saker. 

-Det är svårt för mig att säga vilken ansats som kommer att vara mest fruktbar. Det beror på så många saker som ligger utanför regeringens kontroll. Det är inte säkert att du lyckas även om den federala regeringen ställer upp med pengar. De måste se till att rätt myndigheter får pengarna, att rätt beslut fattas, att det privata näringslivet dras med. Det är fullt möjligt att regeringen satsar, utan att vi för den skull får en infrastruktur.
-Om det blir näringslivet som står för satsningen kan det för all del bli en infrastruktur, men kanske inte den landet vill ha, utan den som näringslivet kortsiktigt tjänar på.

-Oavsett parti tror jag vi går mot en kompromiss, där regeringen och näringslivet samarbetar, men där regeringen spelar en ledande roll.
Kahn efterlyser en federal satsning, men han vill inte att regeringen dominerar projektet, vare sig administrativt eller ekonomiskt.

-Regeringen måste åtminstone välsigna vad som görs, annars blir det inget av. Det är mycket svårt att göra något som har så vittgående effekter på samhället om man har regeringen mot sig. Ibland räcker det om de bara tittar åt andra hållet, ibland behöver de vara en aktiv drivkraft, ibland behöver de ställa upp med pengar.
Han liknar dess bidrag vid ett utsäde, som stimulerar intresset i den privata sektorn genom att visa att det går.

-Det är avgörande att få med det privata näringslivet. Där finns mycket större ekonomiska resurser än inom regeringen. Problemet är att ingen har det unika ansvaret för infrastrukturen, utom möjligen den federala regeringen. Det är svårt för den privata sektorn att själv ta ett sådant steg.
-För att vi verkligen ska kunna tala om en infrastruktur för information måste vi nå utanför forskningens och utbildningens världar, in i småföretagen, skolorna och hemmen. Det kommer att kräva en nationell satsning av stora mått, säger Kahn. 

Det betyder inte att han önskar ta efter Europas och Japans centralistiska modeller för hur man bygger en infrastruktur.
Den amerikanska modellen har enligt Kahn "fungerat extremt bra" och han ser Internet som ett exempel på denna. Internet länkar idag 5.000 datanät i ca 40 länder och trafiken på nätet har vuxit med runt 20 procent per månad (!) under de senaste åren.

-De flesta av dagens standarder har skapats uppifrån och ner, av kommittéer som diskuterat och definierat dem, men Internet skapades på ett annat sätt. Folk drog igång  verksamheter som med tiden blev de facto standarder därför att de svarade mot verkliga behov. Så småningom kom någon kommitté och bekräftade den existerande standarden.
-Jag tror inte vi ska hänga upp oss för mycket på de initiala standarderna, för de måste ändå ändras med tiden. Det finns inget sätt att veta vad som är rätt utan att ha prövat det i praktiken, säger han.

Gigabitnätet ställer oss inför en rad stora tekniska utmaningar: Hur bygger man digitala växlar för ett fiberoptiskt nät som transporterar en eller ett par miljarder binära siffror per sekund? Hur dirigerar man trafiken på ett sådant nät? Hur kan man på ett billigt sätt koppla in datorer på ett sådant supernät? Hur eliminerar man den tidsödande "handskakning" (för att kolla att bägge partner "talar samma språk" kommunikationsmässigt sett) som används vid kommunikation över analoga datanät? Hur ska datorernas operativsystem se ut om de ska kunna arbeta med data som kommer och går i gigabit-fart? Hur ska datorerna hantera den tidsfördröjning som uppstår när data färdas över långa geografiska avstånd? Hur skyddar man sig från massiva förluster av data vid avbrott i gigabittrafik? 
-Det är svårare än vi trodde att få datorer att kommunicera vid sådana hastigheter, säger Kahn, men han ser trots det inte några avgörande tekniska hinder för ett gigabitnät i USA.

I så fall ligger bollen hos politikerna och företagsledarna. Och om de spelar väl kan vi vänta oss nya dramatiska genombrott inom USA:s forskningsvärld under 90-talets andra hälft.
Hur länge det ska ta innan den nya infrastrukturen för information når ut i stugorna är ännu oklart. Det beror inte minst på om lagstiftarna i Washington lyckas lösa upp den trafikknut som blockerar de lokala telefonbolagens investeringsvilja i ny teknik. Det beror också på om näringslivet lyckas fylla dessa nya superkanaler med produkter som folk vill ha.

-Det kommer att ta lång tid innan folk i allmänhet vet vad de ska göra med en gigabit i hemmen. De första applikationerna blir nog video, säger Kahn.
Kanske blir det rent av möjligheten att välja mellan ett obegränsat antal TV-program och kameravinklar som kommer att ge var medborgare dess rättmätiga gigabit? 

Bob Kahn grundade CNRI som han hoppades skulle bli
en civil motsvarighet till Pentagons Darpa. Intresset från det
privata näringslivet var dock ljummet. Såsmåningom lyckades
han få regeringen att stöda sitt Gigabitprojekt.
Foto: Hans Sandberg
"Vi trodde det privata näringslivet skulle kasta sig över vårt projekt" 

Robert E. Kahn kommer från stadsdelen Brooklyn i New York, där han 1960 tog sin examen i elektronisk ingenjörskonst. Han doktorerade i samma ämne vid Princeton University 1964 och blev därefter lärare på Massachusetts berömda Institute of Technology (MIT). Det var där han blev intresserad av informationsteknik och inte minst områden som artificiell intelligens och datanätverk. 1966 började han jobba på Bolt, Baranek &Newman (BBN) i Cambridge, Massachusetts.
När Pentagons forskningsgren, Darpa (tidigare Arpa) beslöt att bygga ett forskningsnät baserat på den nyligen utvecklade tekniken för paketförmedling, lät man uppdraget gå till BBN. Kahn fick ansvaret för det nya nätets systemdesign. 1972 gick han över till  Darpa och blev året därpå chef för kontoret för informationsbehandling (IPTO). Kahn och hans kollega Vinton G. Cerf  (som senare skulle bli chefsarkitekt för TCP/IP och skapa telebolaget MCI:s elektroniska postsystem MCI Mail) skrev 1973 en artikel där de lade den teoretiska grunden till tekniken för paketförmedling av data. "A Protocol for Packet Network Intercommunication."

Kahn var idégivaren till Darpas "Strategic Computing Inititative" (SCI), som var ett svar på Japans för att bygga "Femte generationens datorer" med hjälp av artificiell intelligens.
SCI startades 1983 och blev ett av USA:s största federala forskningsprogram på dataområdet.

Han lämnade Darpa 1985 för att tillsammans med Cerf starta en allmännyttig FoU-organisation, Corporation for National Research Initiatives (CNRI). Tanken var att skapa ett civilt Darpa.
Kahn och Cerf var oroliga för att USA skulle förlora sin ledande roll på informationsteknikens område till Europa och Japan, som visserligen låg och ligger långt efter USA då det gäller avancerade datanät, men vars vilja att satsa var och är desto större.

Det är inte alls lika lätt att trumma ihop stöd för nationella program i USA, dels pga den traditionella skepsisen mot statliga myndigheter och dels pga budgetunderskotten. Kahn hoppades ursprungligen att det privata näringslivetet skulle ställa upp med en miljard dollar, men det var optimistiskt i överkant.
-Det har gått mycket långsammare än jag väntade mig, säger han. Vi trodde att näringslivet skulle kasta sig över detta projekt, men så skedde inte vilket gjorde att vi tvingades söka stöd hos regeringen. Vi lyckades få några företag att ställa upp med pengar, men det finns inte så många företag med både vision och resurser för denna typ av projekt, säger han. 

Företagen var AT&T, DEC, IBM, MCI, Xerox och de sju regionala telefonbolagen. Startbidraget som inte är offentligt rörde sig troligen bara om ett par miljoner dollar.

Efter fler års lobbyverksamhet lyckades Kahn 1990 få regeringen att via NSF och Darpa satsa 15,8 miljoner dollar över tre år för gigabitforskning i CNRI:s regi. Det var en blygsam summa, men ett officiellt erkännande som gjorde det lättare att få fram pengar från industrin. CNRI:s industriella partner ska bidra med 100 miljoner dollar, plus stora resurser i form av forskare och utrustning.
-Medvetenheten om behovet av en infrastruktur för information är mycket större idag än när jag drog igång CNRI, säger Kahn. Det hålls många konferenser om ämnet, kongressen har tagit en lag och åtminstone en av kandidaterna till vicepresident (Al Gore, Jr.) har aktivt drivit denna fråga. Regeringen har också blivit mycket mer intresserad och även om den inte ingår i det existerande superdatorprogrammet (HPCC), kan det mycket väl komma att ingå i ett uppföljningsprogram.


Aurora, Blanca, Casa, Nectar och Vistanet ska visa att det går
CNRI bygger tillsammans med forskare från industrin och universiteten upp fem anläggningar som ska testa olika aspekter av nätverksteknologi i gigabitklassen. Richard Bender på CNRI säger att han räknar med att de praktiska försöken ska inledas i januari 1993 och att resultaten ska vara klara mot slutet av samma år.

AURORA: Design av växlar och kommunikationsprotokoll för gigabitnät, baserade på ATM-teknik (Asynchornous Transfer Mode) respektive PTM-teknik (Packet Transfer Mode). Studera distribuerade system och applikationer på gigabitnät.
Partners: Bell Atlantic, Bellcore, IBM, MIT, MCI, Nynex, University of Pennsylvania.

BLANCA: Design och kontroll av gigabit-växlar. Nätverksbaserade applikationer som t ex bildbehandling inom medicin och radioastronomi, samt digitala multimedia-bibliotek. Partners: AT&T, Ameritech, Astronautics,  Bell Atlantic, Cray Research, Lawrence Berkley Laboratory, National Center for Supercomputer Applications, University of California at Berkeley, samt universiteten i Illinois och Wisconsin.
CASA: Studera distribuerad superdatabehandling på höghastighetsnät över stora geografiska avstånd. Studera nya operativsystem som kan tackla problem med "latency," dvs de fördröjningar som uppstår när man arbetar med vitt utspridda processorer i ett system. Utveckla en metadator (meta computer) bestående av en Cray Y-MP, massivt parallella superdatorer, som Intels Touchstone, Thinking Machines CM-2, samt superdatorer av hyperkub-modell. CASA:s nät använder både en ANSI-baserad standard kallad HIPPI och SONET-standarden. Applikationer inom kemi, geofysik och klimatlära.

Partners: Caltech, Jet Propulsion Laboratory, Los Alamos National Laboratory, MCI, Pacific Bell, San Diego Supercomputer Center, UCLA, US West.
NECTAR: Utveckla höghastighetsnät i heterogena superdatormiljöer. Pröva nya protokoll och operativsystem/gränssnitt för sådana nät. En applikation är att utveckla system för ekonomisk styrning, design- och flödeskontroll i stora kemiska industrier. En annan är att försöka lösa "den resande handelsmannens problem" (ett synnerligen beräkningsintensivt problem inom teorin för optimering). Målet är "ett paradigmskifte" i hur man löser stora problem med hjälp av datorer som samverkar över gigabitnät.

Partners: Bell Atlantic/Bell of Pennsylvania, Bellcore, Carnegie-Mellon University, Pittsburgh Supercomputer Center.
VISTANET: Studera hur forskning och medicinsk diagnos kan förbättras med interaktiva datorsystem över ett gigabitnät. Studera protokoll och växelteknologi, samt system för att övervaka trafiken på höghastighetsnät. Bildbehandling inom röntgenbehandling. Partners: Bell South, GTE, Microelectronics Center of North Carolina, University of North Carolina at Chapel Hill och North Carolina State University.

Läs mer om Internets grundare:

fredag, april 10, 1992

Sociala medier - David Gelernters vision från 1992

(Denna artikel publicerades i Datateknik 1992.)

Yale-snille vill bygga digitala luftslott

Vi producerar alltmer data, men datorerna - som skulle hjälpa hantera dem - tycks göra raka motsatsen. 
-Vi lever i en galopperande komplexitetskris, säger David Gelernter, som lagt fram sitt eget svar på denna i boken Mirror Worlds. Han hoppas att en ny typ av av informationsmaskiner – "spegelvärldar" – åter ska göra oss till herre på infotäppan. Vi träffade honom på Yaleuniversitetet i New Haven, Connecticut.

David Gelernter, dataprofessor vid Yale University.
Foto: Hans Sandberg 
-Det råder ingen tvekan om att datorerna haft en ernorm betydelse för vetenskap och teknik, men det är samtidigt svårt att visa att datoriseringen lett till höjd produktivitet. Därför har vi en växande skepsis mot datoriseringen bland allmänheten, säger Gelernter, vars kontor på tionde våningen av institutionen för datavetenskap är ett veritabelt skeppsbrott i pappershavet.

-Saken är den, att det finns så många saker datorerna skulle kunna göra, men inte gör. Det finns så många områden där man inte ens börjat sätta in datorer.

-Ett klassiskt exempel på detta är komplexitetskrisen. Det har blivit extremt svårt för stora organisationer att få en helhetsbild av vad de sysslar med. Många företag och institutioner jag har pratat med säger att detta är deras viktigaste problem.

-Våra sociala institutioner är idag otroligt mycket mer komplexa än för tjugo trettio år sedan. Ändå fortsätter vi behandla dem på samma sätt. Ingen skulle försöka reparera en ny bil med samma metoder som man använde 1965, men det är OK att kräva av våra sociala institutioner att de ska fungera på samma sätt som på 1960-talet.

-Regeringen här i Connecticut brukade skötas av amatörer, av jordbrukare, affärsmän, advokater. De sammanträdde fyra månader vartannat år och gick sedan tillbaks till sina jobb. Det går inte idag.

Vad göra?

Bygg spegelvärldar, är Gelernters recept. Först då kan vi ersätta dagens myrpespektiv med "topsight", vilket är hans term för den insikt ett helhetsperspektiv ger. 

Någonstans i kontorets drivor av papper lyckas han fiska upp en bild av golvplanen i katedralen i Chartres. De medeltida mästerbyggarna är onekligen en av hans inspirationskällor. Han ser mänskligheten stående inför ett projekt som är så ambitiöst att det för tankarna till Babels torn och hans bok är dess Grand Plan.

Vi som lever idag tycker att vi gått igenom en revolution, men det rör sig enligt Gelernter om en illussion, precis som folk 1791 trodde att den industriella revolutionen var över.

-Den verkliga programvarurevolutionen kommer inte ha mycket gemensamt med snitsiga robotar, datorer i utbildningen, prat om paketerad "multimedia" eller någon annan medlem av den senaste månadens tio i topp lista. Det handlar om "offentliga programvaruprojekt", om programmeringskonst i allmänhetens tjänst (civil service software engineering), om spegelvärldar.

-De kommer troligen bli de mest komplexa maskiner av något slag som någonsin byggts, skriver han i Mirror Worlds.


David Gelernter. Foto: Hans Sandberg
-Spegelvärldarna kan ses som en slags operativsystem för institutioner och organisationer, säger Gelernter. Det är ett sätt att utveckla moderna styr- och kontrollmetoder som motsvarar den grad av komplexitet vi står inför.

Gelernters spegelvärldar är luftslott byggda av ingenting, men praktiskt användbara sådana. De skapas av datorprogram som i hans huvud är maskiner utan kropp vilka "blott iscensätts, förkroppsligas, i de irrelevanta anhopningar av metal, plast och sand vi kallar datorer."

Är professorn galen? Är det bara ett snilles briljanta hägring, eller något som väntar bakom nästa krök? Betänk då att spegelvärldarnas avgörande byggstenar redan finns eller håller på att utvecklas: tekniker för samordning av  parallella processer, avancerade kommunikationsnät, kunskapsrobotar ("knowbots") och tekniker för visualisering av data.

Gelernter och hans kollega Nicholas Carriero lade för tretton år sedan grunden till den teknik med vilken man idag börjat bygga morgondagens spegelvärldar. De skapade då Linda, ett datorspråk baserat på en ny modell för parallelliserad programmering som gör det möjligt att bygga ett dynamiskt och hierarkiskt system av infomaskiner.

Men även om vi har grundteknikerna, så krävs det ingenjörskonst i stor skala om det ska bli några spegelvärldar av format. I vårt samtal medger Gelernter att det är lättare att föreställa sig stora projekt för att bygga spegelvärldar i Europa och Japan än i USA (pga dess decentralistiska tradition). Fast han tror ändå att bygget ska komma igång i USA, stött av privata företag och organisationer. De första spegelvärldarna ser han inom relativt teknikorienterade områden, inte minst inom hälso- och sjukvård. Hans institution håller på att utvärdera flera förslag till spegelvärldar och beslut ska fattas i höst.

-Jag tror att vi kommer att få se spegelvärldar på stadsnivå inom några få år, säger Gelernter.

En spegelvärld är på en gång en central uppsamlingsplats för mängder av dataflöden och ett sätt att filtrera dessa. Den består av massvis av datorprogram vilka samarbetar, men inte i ett sekventiellt datorsystem, utan i ett parallellt system, fullt av självständiga, asynkrona (dvs ej tidssynkroniserade) infomaskiner. En del tar information från lägre nivåer – ytterst från en sensor, eller någon annan slags input-enhet – och skickar den vidare till andra "maskiner" som läser den och/eller bearbetar den. Andra sitter och håller utkik för en vissa slag av data och reagerar först om de dyker upp. Processen upprepas på högre nivåer under det att data förvandlas till information, som blir allt rikare och mer generell ju högre upp vi kommer.

-Vi kan bygga en liten modell av en organisation eller en liten stad med hjälp av programvara. Sedan pluggar vi in en massa dataströmmar i modellen, så att den får veta vad som sker i staden. Allt som sker i en stad finns representerat i dess spegelvärld genom dess programvara: Där finns dess geografi, dess byggnader, dess befolkningsstatistik och modellen föds hela tiden med nya data, så att den alltid är aktuell.

-Om du vill veta vad som är på gång i stan är allt du behöver göra att röra omkring i den här modellen som finns inne i datorn. Du behöver inte gå ut på stan, där det är bullrigt, varmt och komplicerat.

-Allt som sker i stan sker också i din dator. Man kan hävda att en sådan dator kommer både vara nyttig och intressant. Dess skapande kommer att kräva en böjelse eller talang för design som saknas inom dagens programmering.

-Den här typen av program hör till en kategori som egentligen inte har någonting att göra med teknologi eller databehandling. Det handlar om mikromodeller av verkligheten, om olika typen av mikrokosmos, precis som med zenträdgårdar, japanska trädgårdar, modelltåg och en stor del av mänsklighetens konstnärliga verksamhet.

-Att bygga mikrovärldar är en verksamhet som hör konsten till, snarare än vetenskap och teknik. En spegelvärld är helt enkelt ett mikrokosmos byggt av datorprogram. 

-Jag tror att spegelvärldarna kommer att bli det normala mellanledet (the standard intermediary) mellan medborgarna och den institutionella verkligheten.

-Det kommer att bli lika poänglöst att stå i fysisk direktkontakt med regeringen eller sjukvårdssystemet som att sköta alla sina transporter med fötterna. Det kommer att finnas rimliga teknologier för att buffra alla de obekvämligheter som den externa verkligheten öser över oss, säger Gelernter med typisk chutzpah.

-Spegelvärldarna är inga fotorealistiska bilder, utan lager på lager av representationer som är tillräckligt grafiskt tydliga, för att vi ska kunna känna igen saker i dem. Det är fullt möjligt att de ändå kommer att likna den verkliga världen, eftersom det ligger nära till hands att designa dem på det viset.

-Du börjar på hög nivå, men kan dyka ner i stadshuset om du vill ha information från dem och i den lokala skolmyndighetens kontor om du vill ha information från dem.

Videomediet spelar en fundamental roll för Gelernters spegelvärldar. Jag frågade honom om man inte skulle kunna bygga en spegelvärld utgående från elektroniska "världar" som Compuserve, men han avvisar den tanken.

Avancerad grafik och på sikt video är enligt honom nödvändiga för att folk verkligen ska använda dem. 

-Jag ser massvis med videokamerior i detta system. Billiga videokameror och bredbandsnät för data- och telekommunbikationer land och rike runt håller redan idag på att skapa en enorm kapacitet för kommunikation. Frågan är vad vi ska göra med den? Spegelvärldarna skulle kunna ta in tusentals videoflöden om alla tänkbara saker som är av offentligt intresse. Det mesta kommer säkert vara komplett ointressant för de flesta av oss, men ibland händer det att någon vill veta vad som sägs när den lokala myndigheten diskuterar zonindelningen där han bor. Han kanske av någon anledning bryr sig om vad borgmästeren säger på sin presskonferens. Alla sådana videoflöden finns tillgängliga i stadens spegelvärld. Det är bara att zooma in det du är intresserad av så får du veta vad som händer. TV-upptagningar blir allt vanligare och spegelvärldarna är bara ett sätt att organisera dem och göra dem tillgängliga för allmänheten.

-Poängen med detta system är inte att göra privat information offentligt, utan att göra information som i teorin är offentlig offentlig i praktiken.

-Det är en social mötesplats, en allmänhetens elektroniska park. Du använder inte en park genom att titta in i den, utan genom att gå omkring i den. Du finns själv representerad på din och andra människors skärmar och de finns på din, under eget namn eller under pseudonym. 

-Om jag vill prata med mina kollegor, kan jag helt enkelt säga, att låt oss träffas på stora torget. Jag kan också träffa andra medborgare och diskutera saker med dem. Det finns ingenting som hindrar att dessa samtal kan ske genom att du helt enkelt talar in i din dator som med en bildtelefon.

Skulle det lyckas mänskligheten att bygga spegelvärldar av Gelernters modell, kommer effekterna bli långtgående. Gelernter lägger idag större tonvikt på deras politiska potential än i boken, som han skrev för drygt ett år sedan. Det finns enligt honom tre skäl för att bygga spegelvärldar:

1. Automatisk kvalitetskontroll av beslutsfattande. 

Spegelvärldarna ger oss bättre överblick - topsight!- vilket gör att vi kan undvika dyrbara och onödiga planeringsmissar.

2. Bättre flöde av information.

-Du kan skapa agenter, små program, som automatiskt bevakar och uträttar dina ärenden. Det finns redan föregångare till denna typ av agenter, säger han och tänker på Robert Kahns "knowbots".   

-En av de viktigaste egenskaperna hos spegelvärldarna är historia: De kommer ihåg allting! Jag har tillgång till hela organisationens historia genom dess spegelvärld och kan använda AI-teknik (artificiell intelligens) för att söka reda på data och sammanhang som intresserar mig. Historien kommer att bli tillgänglig även då det gäller händelser och platser, som är för obetydliga för att någon ska skriva historia om dem.

3. Revolutionera det politiska systemet.

-Man kan fråga sig om det fortfarande är möjligt att delta i det politiska livet utan att göra det till en karriär? Hur ska vi göra det möjligt för folk som inte har tid att vara aktiva? Det är ju dem vi vill ska vara aktiva, medan lokalregeringarna ofta domineras av folk som inte har något bättre för sig, säger han.

Hans Sandberg

David Gelernter: Mirror Worlds, or the day software puts the universe in a shoebox ... how it will happen and what it will mean (Oxford University Press, New York, Oxford 1991, $24.95)

fredag, mars 20, 1992

Mark Weiser, Xerox PARC: Datorn försvinner (1992)

(Publicerad i Datateknik mars 1992)

Med ubiquitous computing (UC) försöker Xerox berömda forskningscenter PARC vända upp och ned på vårt sätt att använda datorer. Mark Weiser, som är chef för PARCs datavetenskapliga labb, vill på en gång göra datorerna allestädes närvarande och anonyma.

I likhet med de flesta andra innovatörer är Mark Weiser missnöjd med Status Quo.
-Den gamla typen av datorer, de som sitter på ditt skrivbord förutsätter att du träder in i deras värld, säger han.
Det är datorn i centrum, istället för människan och hennes arbete. I extrema fall, som med system för "virtuell verklighet", måste man sätta på sig hjälm och handskar för att använda dem.

På PARC, som är granne med Stanforduniversitetet i Palo Alto i Californien, försöker man göra raka motsatsen!

Målet är en integrerad datormiljö, där datorerna finns överallt och alltid är tillgängliga. Istället för en dator på ditt skrivbord ska du ha dussintals, av olika storlek och med olika funktioner. Varje rum kan komma att rymma hundratals datorer. Vi ska inte behöva släpa datorn med oss när vi går från ett rum till ett annat, eftersom det bara är att plocka upp någon av datorerna i det andra rummet och fortsätta med vad man gjorde i det förra. Datorerna ska veta var de befinner sig och var du befinner dig och ständigt vara redo att betjäna dig. Härigenom skapas radikalt nya förutsättningar för samarbete och ökad produktivitet på morgondagens kontor.
Det är i korthet drömmen om en allestädes närvarande, men aldrig iögonenfallande databehandling.
Mot den bakgrunden är det kanske lättare att förstå varför Mark Weiser skrev i septembernumret av Scientific American, att "själva idén om en 'personlig' dator" är malplacerad.
-Den gamla stilens datavisionärer försöker radikalisera persondatorerna och göra dem än mer personliga, säger han till DataTeknik.
-Alan Kay talar om intim databehandling som nästa steg. Jag mår illa när jag hör det! Att bli intima med våra datorer är inte den rätta vägen. Vi vill få datorerna ur vägen! De ska vara en del av vårt liv, som papper, pennor och stolar, men vi vill inte bli intima med dem. Det är att driva det personliga och individualistiska till sin extrem, säger Mark Weiser och frågar spetsigt:
-Är du intim med din penna?
(Alan Kay var en av PARCs grundare och är idag en av de ledande forskarna inom Apple Computer. Han myntade begreppet "dynabook", vilket Apple populariserat med termen "kunskapsnavigator". )

Papper och penna är också tekniker, men vi har upphört att betrakta dem som sådana. Vi tar dem oreflekterat för givna, vilket för Weiser är ett tecken på hur djupt en teknik slagit rot i vårt samhälle.

-Ubiquitous computing är det första försöket att på djupet tillämpa det vi lärt oss om människan under de senaste tjugo åren, säger Mark Weiser.

-Det är ofta psykologiska insikter som driver fram förändringar inom dataområdet. Bildskärmar och datorgrafik är t ex svar på input från psykologer.

-Ubiquitous computing kunde bara inträffa på ett ställe som PARC, där du har datavetare och antropologer under samma tak. Jag kom på begreppet när jag funderade på hur vi skulle kunna svara på vad antropologerna sade till oss. De studerade hur folk använder teknologi och pratade om "situationer". De sa att vi missförstått teknologin; att vi förbisett de myriader av detaljer som finns i verkliga situationer, verkliga rum. Om relationer mellan människor i ett rum och om de kulturer de kommer ifrån, säger Mark Weiser.

Det ledde till en radikal omprövning av det sätt på vilket vi använder datorer. Mark Weiser och hans kollegor insåg att det inte skulle räcka med en omprövning av detaljer, som t ex den grafiska miljön (GUI).
-Eftersom en seriös modell för ubiquitous computing kräver att vi tar hänsyn till detaljerna, var vi tvungna att så fort som möjligt försöka bygga element av den och börja använda dem. Detta var inte en sak man kunde studera teoretiskt, utan den måste studeras praktiskt.
-Vi kom så småningom fram till några saker som antydde vart vi är på väg. Vi vet att det kanske inte är exakt de rätta sakerna, men de är tillräckligt olika de nuvarande datorerna för att hjälpa oss på vägen.

PARCs modell av UC ser vid första anblicken inte särskilt märkvärdig ut. Vi har ett stort elektroniskt ritbräde ("Liveboard"), som man kan rita på med en digital "tuschpenna". Vi har ett antal penndatorer ("Pads") och en mängd små digitala anteckningsblock i fickformat ("Tabs").

-Vi har skapat datorer av tre storlekar: några tum, en fot och en aln ("inch-, foot- and yardsize computers"), vilket vi ser som en naturlig skala, motsvarande den vi har på kontoret och i hemmet. (Om någon undrar var man finner en aln stor infomations-skärm i ett hem, så pekar Mark Weiser på kylskåpsdörren, som i USA är standard-anslagstavlan.)

Det som först får mig att höja ögonbrynen en smula är en specialtillämpning av den minsta biten i detta pussel; den "aktiva" ID-bricka som Mark Weiser bär på sitt bröst och som faktiskt är en dator med inbyggd infraröd sändare.
Denna smarta ID-bricka, som är framtagen i samarbete med forskare inom Olivetti, kommunicerar hela tiden med små antenner i taket på varje rum.

Smarta ID-brickor kan användas både för att kontrollera och betjäna människor. De kan ingå i ett system som selektivt öppnar dörrar; de kan användas för att styra telefonsamtal och elektronisk post till en person oavsett i vilket rum han befinner sig; de kan användas för att informera datorerna i ett rum om vem som är där.
De kan dessutom användas för att skapa automatiska dagböcker, genom att systemet löpande registrerar var du är (såvida du inte stoppar ID-brickan i en ficka varigenom dess infraröda signaler blockeras.) Systemet skapar en automatisk logg över var du varit och vilka andra som varit på samma ställe, en lista som kan bli ett värdefullt hjälpmedel för att komma ihåg saker och ting. (Mark Weiser är medveten om att många fruktar att detta ska inkräkta på privatlivets helgd -- "Storebror ser dig" --, men han tror att man kan undvika det genom sociala normer för hur systemet används och genom att låta individen själv kontrollera sådan privat information.)

De minsta datorerna i UC-systemet, låt oss kalla dem tabbar, är tänkta att fungera som ett mycket enkelt skrivredskap; ett elektroniskt kladdpapper. De kan kanske jämföras med enkla fickräknare. Mark Weiser tänker sig ett hundratal sådana tabbar i ett normalt kontorsrum.
Nästa steg i skalan är "Pads", dvs elektroniska anteckningsblock. (Jag avstår från att föreslå en försvenskning av detta begrepp!) De påminner mest om penndatorer, men fyller en annan funktion, vilket illustreras av det faktum att ett rum kan ha 10-20 "Pads". Liksom du i t ex Windows kan ha flera program öppnade på en gång kan du ha flera "Pads" aktiva på ditt skrivbord. Skillnaden är att hittillsvarande fönstermiljöer trängs på en och samma bildskärm, medan du PARC-modellen kan ha dem liggande bredvid dig i full skala.
Varje rum kommer därtill ha en eller ett par "storbildskärmar" ("Liveboards"), som kan använda för kommunikation (t ex videokonferenser) eller för föredragningar.

Grundelementen i "ubiquitous computing" bygger på tekniker som antingen redan finns eller är nära förestående. Lätta handdatorer, penndatorer och projektionsbildskärmar med ett system för penninput (en infraröd kamera registrerar den digitala "tuschpennans" rörelser), ett till stora delar trådlöst lokalt datanät, samt ett antal nätverksdatorer.

Det som gör systemet i sin helhet unikt, är den totala integrationen av ett så stort antal datorer, som alla kommunicerar med varandra på ett enhetligt sätt och att varje del vet var den befinner sig.

Samtidigt som Mark Weiser ritar på sin "storbildskärm" kan jag ge honom skriftliga kommentarer, direkt från min "Pad". De kommer att dyka upp på hans skärm. Jag kan också ta innehållet på hans skärm och spara det som en ikon på en "Tab" för att senare kalla upp samma bild på en annan "storbildskärm". Systemet finns överallt och jag kan nå det oavsett var jag befinner mig i byggnaden. Det är något helt annat än att bära med sig en penndator från rum till rum och koppla upp sig mot ett lokalt nätverk.

-Det finns de som tror att vi kommer att nå dit ändå, mer eller mindre automatiskt, men det tror inte jag, säger Mark Weiser. Istället kommer vi att få anhopningar av nätverk som kommunicerar inom var sin nisch, typ personsökare, mobiltelefoner och persondatorer av olika slag. Jämför det med den tillgång vi har till litteraturen i detta rum. Vi har en omedelbar access till alla ord i rummet, utan att behöva bekymra oss om vilket format de är tryckta i. Så länge vi (i datavärlden) domineras av dessa nischer, kommer vi aldrig få en "sömlös" access till informationsvärlden, där man kan kan plocka up en dator (scrapcomputer) och bara sätta igång och jobba.

Det är viktigt att komma ihåg att UC än så länge bara är ett forskningsprojekt, som kan komma att förändras åtskilligt innan Xerox bestämmer sig för att försöka lansera det på marknaden. Först måste man tackla några av de svåra tekniska utmaningar systemet står inför.
-Vi kommer att behöva mycket mer trådlös kommunikation än något företag idag kan föreställa sig, säger Mark Weiser. Vi behöver förbindelser mellan hundratals datorer i en byggnad, medan företagen på detta område tänker i termer av en person, en dator.
PARC-forskarna har därför tvingats tvingats ge sig in på att utveckla egna trådlösa nät, med ytterst små celler, som var för sig täcker ett rum.

Ett annat problem är att bygga ett stabilt system, med så många löst länkade datorer.
-Det gäller att se till att inte hela systemet rasar om en dator inte fungerar, något som nuvarande system för distribuerad databehandling är dåliga på. Vi behöver en mycket mer robust teknologi för nätverksdatorer, säger han.
Såväl datorernas operativsystem, som tekniken för fönsterhantering måste genomgå stora förändringar för att möjliggöra "ubiquitous computing".
Den tredje utmaningen gäller förmågan att bygga smått. Det är en förutsättning om man ska kunna ta fram tillräckligt små, lätta och billiga "Tabs".

Även om forskarna i Xerox-forskarna i Palo Alto lyckas möta dessa och andra tekniska utmaningar, återstår det att se hur moderföretaget möter utmaningarna på marknaden. Under 70-talet lyckades Xerox fumla bort en rad geniala uppfinningar, vilket gjorde att man tappade såväl sina snillen som de marknader de skapat.

Förhoppningsvis ska 90-talets skörd från PARC inte gå samma öde till mötes.

Hans Sandberg

Xerox: Inte bara kopiatorer

Men vad har Xerox med datorer att göra? Ganska mycket och det av tre skäl.

För det första, därför att dåvarande vd Peter McColough 1970 startade ett forskningscenter med uppgift att studera hur komplexa organisationer använder information. Detta center, Palo Alto Research Center, som är beläget i en kullig trakt i närheten av Stanforduniversitetet, skulle visa sig vara oerhört kreativt. Här skapades 1974 t ex den första persondatorn/arbetsstationen Alto. Den var visserligen ett kommersiellt fiasko, men den introducerade en rad begrepp, som skulle sätta sin prägel på persondator-revolutionen och Apples framgångsrika Macintosh: överlappande fönster (windows), ikoner, mus, "bitmap" grafik. PARC ledde också utvecklingen av lokala nätverk med sitt Ethernet och var födelseplatsen för det första objektorienterade programspråket, Smalltalk.

Det andra skälet är att Xerox länge haft ambitionen att bli ett dataföretag. 1987 övergav man sin tidigare strategi, som gick ut på att sälja egna datorsystem och exklusiva operativsystem, till förmån för Suns SPARC-datorer och operativsystem SunOS. Idag fokuserar man sig på att utveckla och sälja applikationer för kontorsautomation och i synnerhet avancerad desktop publishing och bildbehandling.

Det tredje skälet är, att Xerox digitala kopiatorer är datorer. De innehåller nätverk av mikroprocessorer och avancerad programvara, inklusive expertsystem för teknisk övervakning.

Hans Sandberg

onsdag, januari 15, 1992

Möte med Andreas V. Bechtolsheim, en av Sun Microsystems skapare (1991)

Andreas Bechtholsheim vid
Sun Microsystems högkvarter
i Palo Alto, Californien.
Foto: Hans Sandberg
Sun Microsystems har klarat sig nästan oförskämt bra i en tid då dataindustrin går på knäna. Bragden blir inte mindre, om man betänker hur många och mäktiga krafter, som är ute efter Suns skalp. Hans Sandberg reste till Palo Alto, för att ta reda på hur detta klassiska Silicon Valley-företag tänker möta dagens och morgondagens utmaningar. Han träffade bl a Andreas V. Bechtolsheim, en av Suns grundare och chefsarkitekten bakom dess arbetsstationer, inklusive SPARCstation 1.

Sun Microsystems lär ha gott om besserwissrar och vd Scott G. McNealy har ett ego, kaxigt nog för att reta gallsten på folk, om hans giftiga kommentarer nu inte redan gjort det. Typisk var hans kommentar till ACE-gruppens planer på att kasta Sun och dess RISC-standard, SPARC, ur sadeln:

"Big hat, no cattle!" (Stor hatt, ingen boskap!)

För att överleva med en sådan attityd, måste man ha rejält på fötterna och det får man väl säga att de har. Sun är USAs elfte största dataföretag och ett av de snabbast växande. Under de fem åren 1987 t.o.m. 1991 sexdubblades försäljningen, från 537 till 3.221 miljoner dollar (ca 19 mdr kr). Bokslutsåret 1991, som slutade sista juni, steg försäljningen med 31 procent och vinsten med 71 procent.

Sun håller en dryg tredjedel av marknaden för arbetsstationer och två tredjedelar av marknaden för RISC-baserade sådana. Dominansen inom SPARC-sektorn är nära nog total, men det är inte något att skryta med. Det röjer i själva verket en allvarlig svaghet i Suns strategi; oförmågan att skapa en livaktig SPARC-marknad vid sidan om Sun självt.

Suns mål är, att upprepa 80-talets fenomenala expansion av persondatormarknaden. Nyckeln till framgång ser man i standardisering och öppna system. Företaget har ända sedan starten 1982 satsat helt på Unix, som man trimmat med hjälp av virtuell minneshantering och avancerade nätverksfunktioner.

Nu har inte Suns succé gått obemärkt förbi, vilket visas av alla allianser med udden riktad mot Sun. Open Systems Foundation, OSF,  var t ex ett direkt svar på AT&Ts och Suns Unix-samarbete hösten 1987. Apollo, Bull, DEC,  Hitachi, H-P, IBM, Nixdorf och Siemens var alla oroade över att de två skulle styra Unix-standarden till sin fördel.
           
Sun Microsystems startades av ett gäng forskare från Stanforduniversitetet i Palo Alto: William N. Joy, Vinod Khosla, Scott McNealy och Andreas Bechtolsheim. Med sig från universitetet hade de nya avancerade idéer för nätverksorienterad datordesign.

Andy Bechtolsheim är som väl är, inte någon besserwisser, utan uppträder anspråkslöst, nästan pojkaktigt, ett intryck som förstärks av den långa och rangliga figuren. Han talar amerikanska med en lätt tysk accent, trots att det är 17 år sedan han flyttade till Californien för att bedriva datorforskning.  
            
Hans titel är teknisk vice-vd (vice-president of technology), men det vore kanske mer träffande att beskriva honom som en joker i Suns ledning. "Han är alltid här och talar om för mig vad jag gör för fel", sa Scott McNealy en gång till Wall Street Journal.
            
Det var Andy Bechtolsheim som designade Suns första arbetsstationer runt Motorolas mikroprocessor 68000, vilket var ett radikalt grepp då konkurrenterna satsade på egenutvecklade exklusiva kretsar.
            
I januari 1987 föreslog han, att Sun skulle använda sitt nya SPARC-chip för att bygga arbetsstationer, men den idén avvisades. Då bildade han ett eget företag, UniSun, och tog pengar ur egen ficka för utvecklingsarbetet. Det dröjde inte länge förrän Suns ledning fick tänka om. Andy kom tillbaka och i april 1989 släpptes SPARCstation 1.
            
Det var räddningen för Sun, som annars hade akterseglats av konkurrenterna.
            
Samtliga nya Sun-maskiner baseras idag på SPARC-arkitekturen, som också licenseras till den som så önskar.    
            
Gårdagens framgångar är dock ingen garanti för framtiden. Medan jag väntar på Andy, ritar jag en liten skiss för mig själv. Det blir en bild av ett företag under belägring från alla håll och kanter:
  • Compaq, DEC, MIPS, Microsoft och SCO International har gaddat ihop sig bakom ACE.
  • Hewlett-Packards nya billiga arbetsstationer i 700-serien har fått konkurrenterna, inklusive Sun, att blekna vid jämförelse.
  • Silicon Graphics Internationals arbetsstation "Iris" levererar överlägsen grafik till kanonpris.
  • Apple, IBM och Motorola går samman i en allians för att etablera en ny RISC-standard kring IBMs POWER-chips. 
  • En rad andra företag hoppas kunna erövra en större del av SPARC-marknaden. Där finns t ex CompuAdd, Solbourne, RDI, Tadpole och det kommer knappast dröja länge innan japanerna, taiwaneserna och koreanerna börjar visa klorna.
  • De mest avancerade persondatorerna håller på att klättra över planket in på arbetsstationernas bollplan. Snart är det dags för Intel att släppa sin nya krets 80586, som kommer att göra det än svårare att dra skiljelinjen mellan en arbetsstation och en avancerad PC.
Trots detta säger Andy Bechtolsheim, att det inte finns något skäl för Sun att ändra sin strategi.

-Faktum är att våra konkurrenter inte har lyckats förändra sin marknadsandel särskilt mycket de senaste åren, medan vi ökat vår på bekostnad av H-P och DEC. Vi har helt enkelt haft produkterna. Det spelar ingen roll hur många konsortier du har, om du inte kan leverera.

Lite senare prövar jag samma bild på Douglas A. Kaewert, Suns marknadschef för systemprodukter. Han svarar med en motbild, där företaget inte är inringat, men väl först in i Unixmarknaden.

-Nu börjar alla andra röra sig åt samma håll, bort från den gamla typen av databehandling. Skälet till att de siktar på Sun, är att vi var först.
            
Andy Bechtolsheim säger, att det enda tillägget till strategin är, att lanseringen av Solaris 2.0 (den senaste upplagan av Suns version av Unix), för 32-bitars Intel-datorer. Men det är inte för att konkurrera med billiga 386SX-datorer, man placerar Solaris i PC-världen. Här finns inga pengar att tjäna på hårdvara. Det är inte heller så, att Sun tänker konkurrera med DOS. PC-versionen av Solaris är mer en service till de kunder, som har både 32-bitars Intel-maskiner och arbetsstationer från Sun. De får en chans att köra sina Unix-program över hela linjen. 15-2000 extra sålda Solaris per månad innebär dessutom en fördubblad upplaga, vilket skulle ge SunSoft mer resurser för vidareutveckling av operativsystemet. Att Solaris för PC också bidrar till förvirringen inom ACE-gruppen och konkurrerar med Microsofts Windows NT, gör ju inte saken sämre ur Suns perspektiv.

Unixmarknaden växer mycket snabbt. Enligt Bechtholsheim låg den på 6-7 miljarder dollar 1990 och 10 miljarder 1991; en ökning med 50 procent. Med den takten kan vi snart komma att tala om en marknad på 35, 40 och kanske 50 miljarder dollar. Hur ska Sun kunna försvara sin ledning?           

Andy Bechtolsheim är inte särskilt oroad över konkurrensen från persondatorernas lågpriskonkurrens. Arbetsstationernas marknad följer en annan logik. Kunderna är inte i första hand ifrån hur mycket en maskin kostar, utan ifrån hur kostnadseffektiv den är.

-Marknaden för RISC och SPARC-kretsar drivs av förhållandet mellan pris och prestanda, säger han. Folk är intresserade av antalet dollar eller kronor per SPECmark (ett mer heltäckande mått på datorers förmåga än Mips, dvs miljoner instruktioner per sekund).
            
-Arbetsstationerna representerar det mest kostnadseffektiva sättet att lösa en rad uppgifter för såväl ingenjörer som för folket på Wall Street. Det är saker som inte kan göras med en PC och som kan göras mycket billigare med en arbetsstation, än med gårdagens minidatorer och stordatorer.
            
Han medger dock att man står inför en mycket tuff konkurrens och att "vi olyckligtvis är något försenade med våra senaste chip, men förhoppningsvis ska vi snart vara tillbaks på kurvan" (för pris/prestanda, min anm. HS).
            
Med den senaste multiprocessor-servern 600MP har Sun redan hämtat igen en del av konkurrenternas försprång, men den helt avgörande utmaningen mot Sun kommer på kretsnivå. Här är man fortfarande svaret skyldig och för den skull har man tre separata kretsprojekt på gång.

Det första syftar, enligt Andy Bechtolsheim till att placera ett helt system på ett enda chips. Det ska resultera i mycket billiga SPARCstationer, även om man förmodligen aldrig kommer att ligga på PC-priser.

Det andra projektet, "Viking SuperSPARC", driver Sun tillsammans med Texas Instruments. Det ska ge svaret på H-Ps och IBMs nya RISC-datorer. Viking-chipet har 3,2 miljoner transistorer och kan utföra upp till tre instruktioner parallellt. Han säger, att han inte kan nämna några SPECmark så länge man inte bevisa dem, med verkliga chips och verkliga kompilatorer.

-Men våra datorsimuleringar pekar på, att detta chips kommer att ha högre prestanda än någon annan existerande produkt på marknaden.

(I en enkät för Computerworld skriver Scott McNealy om en kommande arbetsstation i prisklassen 5-10 000 dollar, som ska ge 50-80 SPECmark, vilket kan jämföras med H-Ps System 700:s 55 SPECmark.)

Sun ska, enligt Andy Bechtolsheim, börja masstillverka de två nya SPARC-kretsarna under 1992. När vi får se arbetsstationer och servers byggda på dessa chips vill han inte säga.
            
Lite längre framåt i tiden, kanske 1993, eller 1994, väntar ett 64 bitars SPARC-chips, som ska kunna leverera flera hundra SPECmark.

-Vi har tagit fram en specifikation, V9, för detta chip, tillsammans med SPARC International, säger han. Den är i stort sätt klar, men ännu inte offentlig för allmänheten. Flera företag försöker redan tillämpa denna arkitektur. HAL, som delvis ägs av Fujitsu har sagt att de jobbar på en 64-bitars V9-arkitektur.

Konkurrenten MIPS Computer har också tagit fram ett 64-bitars RISC-chip, R4000, som spelar en central roll i ACE-gruppens strategi.

-Vi tror att R4000 kom lite för tidigt, säger Andy Bechtolsheim skeptiskt. Det finns inte idag programvara som stöder ett 64-bitars chips, vare sig för Microsoft eller Unix. Fast om några år kommer systemens huvudminne vara tillräckligt stora, för att folk ska börja efterfråga mer än 32 bitar. 1995 kommer de flesta leverantörer att ha 64-bitars chip.

-Vår strategi täcker in hela skalan, från X-terminaler för $995 till stora gigaflop-maskiner för hundratusentals dollar. Vi är emellertid inte intresserade av att bygga persondatorer, eller maskiner som startar på hundratusen dollar.

-Det är ingen uniform marknad; det finns den tekniska delen och den kommersiella. Olika företag har olika starka sidor. IBM har sagt, att hälften av deras RS/6000 försäljning är inom den kommersiella sektorn. För oss är det en tredjedel. De har alltid sålt till kommersiella kunder och det är lättare för dem att bibehålla den relationen.

-Vad som kommer att hända är, att varje företag bygger på sina starka sidor och våra starka sida har varit låga kostnader, bra pris/prestanda och hög volym. Vi har t ex inte fokuserat oss på 3D-grafik, eftersom det inte varit en stor marknad, men vi tror att 3D-grafik är något som kommer.

-Vi har heller inte satsat på system med reserv-processorer (redundant processing), ett segment som Tandem investerat i. Fast det är ett område som inte växt särskilt mycket.

-Vi försöker plocka ut de segment som växer snabbast, för att få mest ut av våra investeringar. Hittills har det varit den ingenjörstekniska och vetenskapliga sidan, men nu väntar vi en stark tillväxt på den kommersiella sidan. Det kommer att bli en stark migration från märkesbundna system, som VMS, VM och 32-bitars stordatorer, till arbetsstationer. Det håller på att bli en flodvåg. Folk upptäcker att de kan ersätta en stordator (med arbetsstationer) till ett pris, som ligger under dess årliga servicekostnad.

-Jag är å andra sidan inte säker på, att alla som arbetar inom den kommersiella marknaden behöver arbetsstationer på sina skrivbord. Om allt de gör är arbeta mot en Oracle-databas, kan de lika gärna göra det med en X-terminal.

-Tillväxten på det kommersiella området kommer att gälla nätverks-servers, snarare än arbetsstationer. Folk kommer att använda förmågan att köra flera processorer samtidigt och de nya I/O kapaciteter vi arbetar på, till att bygga mycket större system. Det är mycket mer kostnadseffektivt, jämfört med traditionella stordatorer.

Det finns de som i Sun ser ett exempel på framtidens "datorlösa dataföretag", dvs företag som lägger ut all tillverkning och fokuserar sig på programvara, design, försäljning och service.
            
Andy Bechtolsheim har ingenting till övers för den teorin.
-Det är den amerikanska drömmen att du kan vara ett servicesamhälle och /ändå/ tjäna en massa pengar. Sanningen är dock, att de som bygger maskinerna är mycket bättre på att optimera produkterna för konsumenterna.

-Suns strategi har alltid varit att hålla världsklass på vår tillverkning. Merparten av vår utrustning kommer visserligen från Japan, men vi kan bygga samma saker som de kan bygga där. Det är väldigt viktigt att ingenjörsarbetet är nära länkat till produktionen.

-Filosofiskt vill vi vara ett japanskt företag. Vi vill kunna konkurrera med deras affärsmodell, även om vi inte tillverkar en massa komponenter själva. Vi måste hitta ett sätt att tillföra tillräckligt mycket värde på systemnivå och genom vår programvara, för att kunna balansera våra partners.

-Vår modell är, att vi alla arbetar som om vi vore partners. Vi optimerar inkomsten per anställd och undviker att ha en väldig massa anställda. Vi försöker vara effektiva. Vi kan inte heller ta vara på varje tillfälle som öppnar sig, eftersom vi inte har resurserna. Vi kan inte heller utveckla färdiga lösningar åt kunderna, utan ser till att de kan lösa sina egna problem.

Suns teknologiska utmaningar har en viktig ekonomisk aspekt. Räcker 3 miljarder i omsättning för att möta de nödvändiga framtidsinvesteringarna? Ta Apple, IBM och Motorola som exempel! De är alla långt större än Sun, men anser sig inte ha råd att var och en för sig finansiera de enorma kostnader, som nya datorarkitekturer och operativsystem är förenade med. Att storleken är ett problem för Sun, visar inte minst det faktum att man både 1987 och 1991 fört diskussioner med Apple om ett samgående. Det finns de som fruktar att Sun kan komma att bli uppköpt av Fujitsu en dag. På sätt och vis skulle en sammanslagning eller ett övertagande av Sun bli ett nederlag för Suns öppna strategi. En poäng med den skulle ju vara att man kan utnyttja standardiseringen för att sprida kostnaderna och utnyttja innovationer gjorda på annat håll.

-Vi gör huvuddelen av vårt utvecklingsarbete på kretssidan tillsammans med andra företag. Alla företagen tjänar på att gemensamt utveckla kretsarna och alla har tillgång till de nyaste kretsarna, säger Andy Bechtolsheim.

Risken med Suns öppna strategi är förstås, att det är fritt fram för vem som helst att komma in och slåss om kunderna. Det för oss naturligt till frågan om framtida konkurrenshot från japaner, koreaner och taiwaneser?

-Först och främst ska du veta att Japan är vår näst största marknad efter USA, säger han. Vi har 15 procent av vår försäljning i Japan, där vi är den största leverantören av arbetsstationer. Vi har mycket nära relationer med en rad japanska företag, som Fujitsu, Matsushita, Sharp, Nippon Steel, Toshiba m fl.

-De japanska företagen är också mer öppna än de amerikanska, då det gäller att acceptera Unix, RISC och SPARC. Det största hindret för japanerna var historiskt frågan om copyright. Fujitsu fick till slut betala IBM en enorm summa för att kunna bygga IBM-kompatibla stordatorer. De vill bort från detta. Unix, RISC och SPARC erbjuder en teknik för detta.

-Om jag har en oro för den traditionella amerikanska dataindustrin, tror jag den gäller vad som kommer från Japan.

Nu är det inte bara Sun som löper denna risk med standardiseringen. Den gäller alla datorföretag, som inte sitter på en unik och exklusiv teknologi. En framgång för RISC(inklusive SPARC)-tekniken på bekostnad av Intels CISC-kretsar (t ex 80386, 80486, 80586) kan därför i värsta fall ytterligare öka USAs handelsunderskott med Japan.

Andy Bechtholmsheim och författaren i december 1991.
Min sista fråga till Andy Bechtolsheim är hur Sun klarar recessionen, som förvärrats det sista halvåret.

-Vår nuvarande produktgeneration är inte den mest konkurrenskraftiga, vilket på sätt och vis gör det bra att recessionen kommer just nu. Förhoppningsvis ska ekonomin vara i bättre skick när våra nya produkter kommer ut och folk börjar investera igen.

Om det inte är att se saker från den soliga sidan så säg....

(Artikeln skrevs i december 1991. Publicerad i Datateknik 1 1992)

Loading...