Posts Tagged ‘google’

Google: am Höhepunkt ist das Geschrei am lautesten (obwohl es fast vorbei ist)

2010/01/17

Google gegen den Rest der Welt. So scheint das Spiel derzeit zu heißen, ein Déjà-vu für alle älteren Semester. Google ist derzeit das, was Microsoft vor 5 Jahren, IBM vor 20 Jahren und Standard Oils vor gut hundert Jahren und war (um nur einige zu nennen) – unumstrittener Marktführer eines mit neuer Technologie selbst geschaffenen Marktes. Dass die Schaffung neuer Märkte regelmäßig mit der Zerstörung alter Märkte und Strukturen einhergeht wusste schon Josef A.  Schumpeter, der dafür den Begriff der schöpferischen Zerstörung prägte. Und jede Zerstörung hat ihre Geräusche und Opfer. Das wissen auch Steve Jobs und Apple. Auch Jobs treibt letztlich alte Industrien vor sich her und nimmt ihnen Umsätze weg.

Natürlich geht es den „alten“ Printmedien nicht gut. Ein erheblicher Teil ihrer früheren Umsätze läuft jetzt in Richtung Adwords. Und natürlich erkennt nicht nur Medien-Altmeister Ruport Murdoch das Paradoxon, dass vielfach erst die redaktionellen Beiträge der Printmedien Google für Suchende attraktiv machen (ein echtes catch22). Murdochs Bestrebungen in Richtung Abschottung seiner Inhalte gegenüber Google ist daher emotional verständlich. Ebenso das als Klage vorgebrachte Ansinnen der Verlagsbranche doch zumindest an den Werbeeinnahmen von Google beteiligt zu werden. Der Streit um den Content und die damit zusammen hängenden, mehrdimensionalen Verwertungs- und Bewerbungsrechte wird noch lange dauern, ist aber nur eine Dimension der „Digital Economy Transition“.

Es geht auch um Standortnachteile (schlag nach bei Michael Porter). Das wurde uns durch die französische Forderung einer Google-Steuer erneut nahe gebracht. Nationalen Steuerbehörden entgehen natürlich erhebliche Steuereinnahmen, wenn die werbetreibende Wirtschaft Milliarden Euro an Google bezahlt und Google seine Steuererklärungen in den USA oder sonst wo abgibt. Dieses Phänomen ist nicht fundamental neu aber in der Dimension: Google erzielt damit einen Gewinn von über US-$ 4,2 Milliarden (2008) und viel davon kommt aus Non-USA. Es findet seit Beginn der Digitalisierung eine Verschiebung von vormals lokalen Ressourcen in Richtung USA statt, wo bereits über Jahrzehnte hinweg eine Kumulation von Kapital, Know-How und Kollektivintelligenz stattfindet und das zu komparativen Wettbewerbsvorteilen der USA führt. Und leider ist Google diesbezüglich nur der vorläufig letzte Treiber dieser Transformation und zeigt das wirtschaftspolitische Versagen Europas brutal auf.   

Aber während sich die Welt noch mit Google konfrontiert übernimmt längst facebook die Position des neuen Leitunternehmens der „Digital Economy“. Und mit facebook werden nicht nur Kapital, sondern auch private Daten samt Sozialen Graph in den USA landen. Politiker brauchen Daten der Amerikaner, um Wahlen in Europa zu gewinnen (lol). Aber jetzt schreien wir einmal lustvoll am Höhepunkt des Google-Aktes!

Advertisements

URL Shortening: The Race For The Short Links Volume

2009/12/15

 

 

MEXX.media business services ag 

Within the last two days the market for short URL services changed dramatically. Yesterday Google announced its own shortening service http://goo.gl and is directly challenging the current market leader bit.ly. And we are talking about volume: TechCrunch reports that in November 2009, the bit.ly service shortened 2.1 billion links, up from 11.8 million the year before, and it currently accounts for about three quarters of all short links on Twitter. But Google isn’t the only new challenger to bit.ly as facebook to announced a proprietary URL shortening service, called fb.me.

Bit.ly’s response was yesterday’s announcement of a new service called bit.ly Pro, which allows Web publishers to bit.ly to send out short links with their own branded (short) domain names such as nyti.ms, 4sq.com, mee.bo, or tcrn.ch. The Pro version includes a new real-time dashboard that will provide publishers with more information about their bit.ly traffic across networks like Twitter, Facebook, and MySpace and services like email, SMS, and instant messenger. Publishers get a comprehensive analytics dashboard which shows real-time stats like the total number of clicks, and their distribution by geography and referring sites.

URL shorting is a smart concept. Shortening an URL generates a shortened URL and along with that valuable meta-data. As real-time streams increasingly become the new reality of the Web, the need for short links and their popularity will increase. The meta-data surrounding those links—who passed them, which are the most popular, which are rising, which are falling—is potentially very valuable. And the need to analyze those data forces bit.ly to develop powerful analytics tools. Bit.ly’s new dashboard is the real-time equivalent to Google Analytics. It seems that bit.ly is developing its own analytics environment for real-time traffic which is a necessary move as Google Analytics is not compatible with bit.ly.

 

 

Posted via email from mexx.world’s TwitterFeed

Is Twitter about to become the Netscape of Real-Time-Web

2009/12/10

Twitter has invented or at least introduced real-time communication as mass phenomenon. Until a few months ago Twitter dominated the marketplace for real-time communication.  Google as well as facebook considered to acquire the start-up but Evan Williams, Biz Stone and Jack Dorsey wanted to make their own way and forced Google, facebook and Microsoft to do their own real-time projects. And they did. Google just recently launched its real-time Communication platform Google Wave and its real-time search feature (in partnership with Twitter and facebook).

Google has grabbed the lead in real-time search, and it appears that Facebook and Twitter have both conceded that they aren’t going to attack Google when it comes to search. Google will definitely dominate the social-search market as facebook will dominate the social network market. Twitter has given up a powerfull position. And worse: Top Twitter like user criticize Twitter for it’s incapability to innovate. ReadWriteWeb has named Twitters lack of innovation as one of the Top Failures 2009.

I’m having flashbacks to the Browser wars during the late 1990s. You remember? In 1995 Marc Andreessen and his company Netscape Communication Corporation invented with Netscape Navigator a completely new browser that incubated the new Web. In 1995 Netscape Navigator was the most widely used web browser with a market share of around 80%. Backed by this success story Netscape made a very successful IPO on August 9, 1995. The stock was offered at $28 per share and soared to $75 on the first day of trading. Netscape’s success landed Andreessen, barefoot, on the cover of Time Magazine. Back in 1995 no one was interested in old fashioned Microsoft that just had overthrown IBM as the world’s number 1 technology company.

But Netscape’s Navigator represented a huge threat to the future of Windows and Microsoft. The Web quite obviously was the promised land for PC users. And the browser is the gatekeeper into this promised land. Whoever controls the browser controls the  PC- users. Bill Gates and Microsoft decided to absorb the browser business the unfriendly way. They integrated the Internet Explorer into Windows. IE 1.0 was released as part of the Microsoft Windows 95 in August 1995. IE 2.0 was released as a free download three months later. Unlike Netscape Navigator it was available to all Windows users for free, even for commercial companies. Within a few months the shooting star Netscape was more or less sentenced to death by Microsoft. Netscape could not compete with this Microsoft’s “free give away” strategy. They lost their economic basis. Microsoft on the other hand conquered the market: from nearly zero in 1995 to roughly 95% market share in 2003.

In 1998 Netscape was acquired by AOL. Game over! The acquisition was seen as a way for AOL to gain a bargaining chip against Microsoft, to let it become less dependent on the Internet Explorer web browser. Marc Andreessen is still a high profile guy and besides other activities one of the investors of Twitter. Let’s wait and see if Marc can support the Twitter guys with his personal experience and help them not to be eaten. Microsoft war Netscapes destiny. Hopefully Google is not Twitters…

Related stories:

Twitter: 26 Million Adult US Users Expected in 2010

Update: Twitter and Why the BtB Model Seems to be Promising

Twitter: The HyperGrowth Will Come to an End

Das “pragmatische” SocialWeb entreißt uns dem Google

2009/11/29

Auf readwriteweb habe ich heut einen exzellenten Artikel von Alisa Leonard-Hansen gefunden, indem sie darlegt, wie sich das Web durch die Social Networks a la facebook, twitter oder myspace in Richtung „pragmatisches Web“ weiterentwickelt. Die zentrale Frage diesbezüglich ist, wie wir im Web Informationen besser finden bzw. besser darüber kommunizieren können. Das semantische Web sollte ursprünglich der Königsweg der verbesserten Kommunikation zwischen Mensch und (Web)Maschine sein. Also eine Art „Google Next Generation“. Der auf einem Konzept des „WWW-Erfinders“ Tim Berners-Lee basierende Ansatz geht davon aus, dass es gelingen wird, (Meta)Datenstrukturen und Anwendungen zu entwickeln, welche Computer die Eigentümlichkeiten menschlicher Sprache besser zugänglich und für sie verarbeitbar können.

 Auf dem Weg zum semantischen Web sind uns aber so ab 2006/2007 die Social Networks als emergentes Webphänomen passiert, wie Alisa nachvollziehbar darlegt. Über diese Social Networks agieren Menschen mit Menschen. Dies hat auf Twitter bereits zur Möglichkeit einer “real-time Suche” oder “sozialen Suche” geführt. Also zur Möglichkeit, Fragen in einem kontextuellen Zusammenhang von Menschen beantworten zu lassen und nicht durch mathematische Algorithmen wie bei Google und anderen traditionell Suchmaschinen. Zur Herstellung dieses Kontextes haben wir sehr pragmatisch Hilfsmittel wie das #Hashtag auf Twitter erfunden.

Falls ich Alisa richtig verstehe geht sie davon aus, dass es uns in Zukunft gelingen könnte, die Informationen über alle Social Networks hinweg zu standardisieren, mittels einheitlich Nomenklatur kontextuelle Verbindungen (also quasi eine Art „Meta-Hashtag“) herzustellen und damit das Web den Googles zu entreißen und den Menschen zurückzugeben. Die menschliche Wissensbasis basiert also auf der pragmatischen Kollaboration der Menschen. Problemlösung über Crowdsourcing mittels Social Networks. Bereits heute nutzen Millionen Menschen weltweit diese Möglichkeit.

Bis das pragmatische Web in der Allgemeinheit angekommen ist wird noch einige Zeit vergehen, die wir  brauchen, um zu lernen, wie wir die Social Networks wirklich nutzen können. Da stehen wir erst am Anfang einer Lernkurve, die eben erst knapp vor 10-24 Monaten für die meisten von uns begonnen hat.

Input für diesen Artikel habe bezogen von:

Venessa Miemis @venessamiemis

Alisa Leonard-Hansen @alisamlo

Readwriteweb @readwriteweb