Archive for January, 2010

Google: am Höhepunkt ist das Geschrei am lautesten (obwohl es fast vorbei ist)

2010/01/17

Google gegen den Rest der Welt. So scheint das Spiel derzeit zu heißen, ein Déjà-vu für alle älteren Semester. Google ist derzeit das, was Microsoft vor 5 Jahren, IBM vor 20 Jahren und Standard Oils vor gut hundert Jahren und war (um nur einige zu nennen) – unumstrittener Marktführer eines mit neuer Technologie selbst geschaffenen Marktes. Dass die Schaffung neuer Märkte regelmäßig mit der Zerstörung alter Märkte und Strukturen einhergeht wusste schon Josef A.  Schumpeter, der dafür den Begriff der schöpferischen Zerstörung prägte. Und jede Zerstörung hat ihre Geräusche und Opfer. Das wissen auch Steve Jobs und Apple. Auch Jobs treibt letztlich alte Industrien vor sich her und nimmt ihnen Umsätze weg.

Natürlich geht es den „alten“ Printmedien nicht gut. Ein erheblicher Teil ihrer früheren Umsätze läuft jetzt in Richtung Adwords. Und natürlich erkennt nicht nur Medien-Altmeister Ruport Murdoch das Paradoxon, dass vielfach erst die redaktionellen Beiträge der Printmedien Google für Suchende attraktiv machen (ein echtes catch22). Murdochs Bestrebungen in Richtung Abschottung seiner Inhalte gegenüber Google ist daher emotional verständlich. Ebenso das als Klage vorgebrachte Ansinnen der Verlagsbranche doch zumindest an den Werbeeinnahmen von Google beteiligt zu werden. Der Streit um den Content und die damit zusammen hängenden, mehrdimensionalen Verwertungs- und Bewerbungsrechte wird noch lange dauern, ist aber nur eine Dimension der „Digital Economy Transition“.

Es geht auch um Standortnachteile (schlag nach bei Michael Porter). Das wurde uns durch die französische Forderung einer Google-Steuer erneut nahe gebracht. Nationalen Steuerbehörden entgehen natürlich erhebliche Steuereinnahmen, wenn die werbetreibende Wirtschaft Milliarden Euro an Google bezahlt und Google seine Steuererklärungen in den USA oder sonst wo abgibt. Dieses Phänomen ist nicht fundamental neu aber in der Dimension: Google erzielt damit einen Gewinn von über US-$ 4,2 Milliarden (2008) und viel davon kommt aus Non-USA. Es findet seit Beginn der Digitalisierung eine Verschiebung von vormals lokalen Ressourcen in Richtung USA statt, wo bereits über Jahrzehnte hinweg eine Kumulation von Kapital, Know-How und Kollektivintelligenz stattfindet und das zu komparativen Wettbewerbsvorteilen der USA führt. Und leider ist Google diesbezüglich nur der vorläufig letzte Treiber dieser Transformation und zeigt das wirtschaftspolitische Versagen Europas brutal auf.   

Aber während sich die Welt noch mit Google konfrontiert übernimmt längst facebook die Position des neuen Leitunternehmens der „Digital Economy“. Und mit facebook werden nicht nur Kapital, sondern auch private Daten samt Sozialen Graph in den USA landen. Politiker brauchen Daten der Amerikaner, um Wahlen in Europa zu gewinnen (lol). Aber jetzt schreien wir einmal lustvoll am Höhepunkt des Google-Aktes!

My Little Marketing World in 2010 (PICT)

2010/01/04

 Everyone needs a simple plan to go ahead. This one is mine 😉

Posted via email from mexx.world’s TwitterFeed

Ron Conway: The Next Big Thing in 2010 in a Top 10 List (where to invest)

2010/01/03

2010 is said to be the year of big money meeting Real-Time Web. It is generally expected that facebook will go public later this year and open a new era. “The Godfather of Silicon Valley” (Ron Conway) preaches that Real-time Web will create a whole new industry. Ron  is convinced that Real-Time Web could be as big as the “New Economy dot com boom” 10 years ago. Here are his Top 10 monetization opportunities in Real-Time Web: (means more than US-$ 5 billion of revenue opportunities):

 

  1. Lead generation – Twitter and other apps are great lead generators
  2. Coupons – printed coupons is a huge business, even bigger on the RT web
  3. Analytics of the data – tons of RT data that can be analyzed for trends
  4. CRM – Customer relationship Management in real time
  5. Payments – like PayPal on Twitter
  6. Commerce – selling products, referring products
  7. User authentication – verification of users and accounts
  8. Syndication of new ad types – There will be innovation in advertising types
  9. Context sensitive advertising (Display)
  10. Real Time Search – Think Google in real time, filtered by your social graph

 

New tools and services will be created that take advantage of the real time activity. The question is, how many of them will be stand alone companies that endure, and how many of them will be acquired by the existing big players. Facebook is here to stay. Twitter and others have to pass the test….

 

(this posting was inspired by Don Dodge`s article The Next Big Thing)

Posted via email from mexx.world’s TwitterFeed

URL Shorteners: The Genome Repositiory for Building the Intelligent Web 3.0

2010/01/02

The Real-Time Genome 

The road to build the intelligent Web 3.0 is paved with social networks and contextual real-time communication. Web 3.0 is an advanced social computing approach: computer-mediated real-time communication between people based on a framework of meta-data that allows people as well as computers to conduct context-related and thus knowledge building communication. It is a kind of Post-Google World with people being real-time connected instead of communication via Websites (see for example Alistair Croll’s idea of How Twitter’s ReTweet creates PageRanks for humans). These networked people will create a digitally augmented collective intelligence and new ways of intellectual cooperation to innovate and invent. 

Tweets and Updates are important building blocks in this real-time computing scenario. These tools  are the cells of a knowledge building system and it’s binding agents. Tweets and Updates  connect people  as well as people with the collective knowledge base via meta-data.  Meta-Data can be grouped into 5 classes:

·         personal data (who am I),

·         relationship data (my social graph)

·         activity data  (what, where, when do I say/do something),

·         contextual data (information, topic/thread, people) and

·         systems data (which tools do I use)

Twitter (like any other social network) and it’s apps are producing lot of meta-data when distributing Tweets. Meta-data is generated in 3 ways:

·         User: plain text enriched with context (#, @, http://, RT)

·         System: information about space-time information, systems data

·         Network: transactional & dissemination data

A key position in building a framework for meta-data will be held by URL shorteners. The elevated position of URL shorteners result  from two effects. They provide the service to publishers to shorten and track their URLs and act as connection points between information/knowledge and social networks (people). And, in providing this service  more transactional meta-data is generated when the Tweet disseminates. URL shorteners like bit.ly store those transactional meta-data along with the other meta-data (received via Twitter API) in their repository. These repositories are to become the Genome of the Web 3.0 as they contain the roadmap for the collective knowledge.

As Twitter is used as distribution system by the information elite (blogosphere) a high percentage of Tweets contain links (Dan Zarrella estimates, that 56% of ReTweets contain Links). These Links in conjunction with the context-related symbols (#, @) build the DNA of the collective intelligence of Web 3.0. bit.ly already began to exploit crowdsourcing for a new business model: bitly.tv. The realtime video channel shows videos that are shared within Web with shortened bit.ly URLs.

The nature of information has changed fundamentally by social networks and we have to adapt our framework  for how we obtain and process information. We need something like XML represented  for Web 2.0 – a meta-language for people and computers (see the research project Information Economy metaLanguage IELM). This comprises the development of  strategies for using social media tools to access real-time data and crowdsource information. To organize the collective intelligence it needs social network (real-time) clients that are able to understand and work with meta-data. The pace of the evolution into Web 3.0 depends heavily on how fast the industry copies with the task of organizing meta-data and/or providing tools for that.  

 

Posted via email from mexx.world’s TwitterFeed