Il fait bon d’investir en Afrique
Les entreprises réalisent des profits plus importants en investissant en Afrique que dans toute autre région du monde. C’est ce qu’indique un nouveau rapport de l'Overseas Development Institute - qui demande aux investisseurs de voir le continent comme une région pleine d'opportunités plutôt que comme un lieu où l’on entreprend des œuvres caritatives.