mail_outline
lock_outline

Register now !

Forgot password ?


Most recent challenges

Titres financiers : quelles conséquences de la pandémie ?

more_vert

Titres financiers : quelles conséquences de la pandémie ?

close

Le challenge consiste à utiliser des données publiques pour réaliser des statistiques descriptives et de l’économétrie montrant ce que la pandémie de Covid-19 a eu comme conséquences sur les marchés de titres financiers (détenteurs, pays de destination investis, type de titres (arbitrage actions/obligations, obligations publiques/privées…), ou un mix de ces dimensions, par exemple). Le travail sera réalisé en stata, et l’analyse économétrique sera en économétrie de panel. Une des bases publiques pouvant être utilisée est la base SHS disponible sur le site de la Banque centrale Européenne (SDW). Le lien est https://sdw.ecb.europa.eu/browse.do?node=9691594 Toute autre source pertinente (comptes financiers trimestriels ou autres) pourra également être mobilisée. La base SHS fournit des statistiques d’encours de différents types de titres (dette, actions, etc) émis par une cinquantaine de pays et détenus par les « secteurs institutionnels » (banques appelées MFIs pour « Monetary and Financial Institutions » ; entreprises non financières, ménages ; fonds de pension et compagnies d’assurance, autres « other financial institutions ») au niveau agrégé des pays de la zone euro. La variable de base est donc un encours de titres (par exemple des obligations publiques) émis par un pays et détenu par un secteur de la zone euro (par exemple la dette publique à long terme émise par les administrations publiques du Canada et détenue par un ménage de la zone euro, ou la dette publique à court terme émise par les administrations publiques britanniques et détenue par une banque de la zone euro). Le croisement pays émetteurs (54) x secteurs de la zone euro (5) x échéances (2), donne une base qui peut atteindre jusqu’à plus de 500 observations à chaque date. Les données sont trimestrielles depuis 2013T4. Une piste est d’étudier l’évolution relative de la détention d’actions et d’obligations (privées et/ou publiques) par les banques de la zone euro sur la période. Il est aussi possible de croiser ces données avec des indicateurs macroéconomiques (taux d’intérêt, etc.) à partir de la plateforme DBNOMICs en prenant les séries Economic Outlook de l’OCDE/ https://db.nomics.world/OECD/EO Le document final en word ou pdf comportera les éléments suivants : • Description des sources utilisées • Statistiques descriptives • Résultats économétriques et commentaires des résultats • limites des résultats, et pistes d’amélioration qui pourront être explorées pendant le stage

Possible reward :

• La récompense proposée est un entretien pour un stage rémunéré de 3 / 4 mois (à discuter) à la Banque de France + un statut de co-auteur possible sur une publication Banque de France (blog ou autre) en fonction des résultats obtenus

Utilisation des techniques de text mining pour mesurer les anticipations d’inflation en France

more_vert

Utilisation des techniques de text mining pour mesurer les anticipations d’inflation en France

close

Plusieurs outils ont été récemment développés et fondées sur les techniques de text mining pour obtenir un signal avancé, complémentaire, ou plus détaillé de variables macroéconomiques. Le plus connu est l’indicateur d’incertitude développé par N. Bloom et ses coauteurs (cf. Baker et al., 2016, Altig et al., 2020). A partir d’une analyse automatisée de la fréquence d’apparition du mot « incertitude » et « politique économique » dans la presse économique spécialisée, ils construisent un indicateur d’incertitude (EPU, pour Economic Policy Uncertainty) dont il fournit l’évolution mensuelle de 1980 à nos jours. Il existe par ailleurs une littérature qui étudie dans quelle mesure les indicateurs d’incertitude peuvent avoir un impact sur les anticipations d’inflation (Istrefi et al., 2014). En outre des enquêtes ont été développées sur les anticipations d’inflation des ménages. Le projet consiste à s’inspirer de l’approche de Bloom et al. en l’appliquant à l’inflation. Le travail demandé comporte trois parties. La première partie consiste à construire une base de données la plus grande possible (au moins quelques centaines ou milliers d’articles) utilisant les sources existantes disponibles gratuitement (éventuellement via une API) pour la France, de la presse nationale ou régionale. Il s’agit de collecter plusieurs dizaines/centaines d’articles par mois sur plusieurs mois et années afin de construire un indicateur mensuel et d’observer son évolution dans le temps (cf infra). La deuxième étape consiste à construire une base de données mensuelle pour la France, comptabilisant le nombre d’occurrences mensuelles relatives à l’inflation ou termes assimilés (hausse de prix, déflation…), sur une période aussi longue que possible, sous excel ou autre logiciel standard assimilé. Il est aussi demandé d'accompagner cette table excel d'un document en word ou pdf expliquant les sources utilisées, le travail effectué et les éventuelles difficultés rencontrées (une page environ peut suffire). Le programme Python ou R utilisé, sera aussi posté, avec un maximum de commentaires pour que le code soit le plus facile à lire possible. Dans cette étape, il est demandé de proposer une méthode (machine learning ou autre) pour trier les articles qui parlent effectivement de l’inflation / des prix à la consommation de ceux qui traitent d’un autre sujet (« prix » littéraire par exemple). La troisième étape consiste à proposer des idées/méthodes d’analyse textuelle (LDA, Word2Vec…) pour identifier quelle catégorie (journaliste, économiste, banquier central, responsable d’entreprise, ménages…) s’exprime dans chaque article sur l’inflation, et faire la différence entre l’inflation courante et l’inflation anticipée. Références : Altig, David, Jose Maria Barrero, Nick Bloom, Steven J. Davis, Brent Meyer and Nick Parker, 2020a. “Surveying Business Uncertainty” NBER Working Paper 25956. Revised, March 2020. Forthcoming, Journal of Econometrics. Baker, Scott, Nicholas Bloom and Steven J. Davis, 2016. “Measuring Economic Policy Uncertainty,” Quarterly Journal of Economics, November. Binder, C. C. (2017) Economic Policy Uncertainty and Household Inflation Uncertainty, The BE Journal of Macroeconomics, 17 (2). Istrefi, K. and Piloiu, A. (2014) Economic Policy Uncertainty and inflation expectations, Banque de France, Document de Travail, 511.

Possible reward :

• La récompense proposée est un entretien pour un stage rémunéré de 3 / 4 mois (à discuter) à la Banque de France + un statut de co-auteur possible sur une publication Banque de France (blog ou autre) en fonction des résultats obtenus

Etude de marché traitement de l’information hyperlocale

more_vert

Etude de marché traitement de l’information hyperlocale

close

Eléments de contexte : En tant que titre de presse quotidienne régionale, la Nouvelle République s’interroge sur les attentes de ses lecteurs concernant le traitement de l’information d'hyper-proximité. Ces informations regroupent les événements du milieu associatif, du tissu culturel et des loisirs au sens large mais aussi toutes les informations plus servicielles qui rythment notre quotidien sur la zone de diffusion. Si nous savons que notre rôle de média nous engage à couvrir ces sujets, il nous est aujourd’hui difficile de trouver le format le plus approprié alors que de nombreux acteurs ont récemment vu le jour sur ce créneau, notamment avec le développement du numérique. Là où certains font le choix de l’exhaustivité, d’autres font le choix de la sélection et de la recommandation. Nous souhaitons donc nous appuyer sur une étude de marché qui nous permettra de mieux connaître les attentes de nos lecteurs (papier et numérique) et ainsi d’adapter notre offre. Présentation de la mission : Afin d’aborder au mieux cette problématique, il nous semble opportun de dissocier le sujet en deux parties: * Une partie “agenda loisirs” qui devra traiter de toute la matière liée aux événements culturels, loisirs, associatifs, touristiques, … * Une partie : “info service” qui devra traiter de toute l’information dite "servicielle" qui permet de renseigner les lecteurs sur les services de leur environnement quotidien : horaires d’ouverture, … Livrables attendus : 1. Une étude de marché sur les solutions d’information pour les événements loisirs/culture (sites et applications mobiles): 1.a. Attentes utilisateurs 1.b. Environnement concurrentiel / forces en présence sur le marché 1.c. Modèle économique 2. Un benchmark des solutions d’agenda loisir proposées par d’autres titres de presse quotidienne (locales et nationales)

Possible reward :

• 1 500 € (mille cinq cents euros)

• 1500 €

Challenge : Identification des sources d'informations locales

more_vert

Challenge : Identification des sources d'informations locales

close

Eléments de contexte : En tant que titre de presse quotidienne régionale, la Nouvelle République s’interroge sur les attentes de ses lecteurs concernant le traitement de l’information d'hyper-proximité. Ces informations regroupent les événements du milieu associatif, du tissu culturel et des loisirs au sens large mais aussi toutes les informations plus servicielles qui rythment notre quotidien sur la zone de diffusion. Si nous savons que notre rôle de média nous engage à couvrir ces sujets, il nous est aujourd’hui difficile de trouver les bonnes sources d’information alors que de nombreux acteurs ont récemment vu le jour sur ce créneau, notamment avec le développement du numérique. Présentation de la mission : Afin d’aborder au mieux cette problématique, il nous semble opportun de dissocier le sujet en deux parties: * Une partie “agenda loisirs” qui devra traiter de toute la matière liée aux événements culturels, loisirs, associatifs, touristiques, … * Une partie : “info service” qui devra traiter de toute l’information dite "servicielle" qui permet de renseigner les lecteurs sur les services de leur environnement quotidien : horaires d’ouverture, … Livrables attendus : 1. Identification des sources d’information disponibles sur notre zone : flux automatiques que nous pourrions intégrer ou plateformes d’information qui pourrait nous permettre via des techniques de webscrapping de collecter l’information 2. Validation des sources identifiées concernant leur fiabilité (véracité et mise à jour) proposition d’intégration de ces sources dans nos outils SI pour une restitution sur nos sites internet et applications mobiles

Possible reward :

• 1000 € ou un stage à la DSI du Groupe la Nouvelle République

• 1000 €

Construction d'une base de données sur les loyers du Chili, en utilisant le web-scraping

more_vert

Construction d'une base de données sur les loyers du Chili, en utilisant le web-scraping

close

La Banque de France travaille en coopération avec d’autres institutions sur les prix et loyers immobiliers, notamment sur les pays de l’OCDE. Pour le Chili, le challenge consistera à construire une base de données sur l’ensemble du pays, recensant le maximum d'offres de biens à louer postées sur les principaux sites immobiliers du pays à une date donnée (l'extraction pourra s'étaler sur quelques jours ou quelques semaines). Les données seront extraites par une technique de web-scraping utilisant Python (utilisant si possible Scrapy) ou une autre technologie adaptée. Le fichier final, sous format excel, devra contenir les informations suivantes en colonne, sachant que certaines données pourront être manquantes dans certains cas, auquel cas il faudra remplacer l'information par un "." ou "NA" : le lien Internet de l'annonce, l'adresse, la ville, la région, le loyer, la surface (du logement, pas celle du terrain s'agissant des maisons), le nombre de pièces, le descriptif de l'annonce, la mention du caractère ancien ou neuf du logement qu'on pourra signaler par "A" ou "N", la date de construction (si disponible), la nature du bien (maison, appartement...). Si des frais ou des taxes sont inclus et identifiables, ils devront idéalement être mentionnés. Seules les annonces de logement résidentiel seront retenues. Les terrains ou l'immobilier commercial seront donc exclus à ce stade. Ce travail, qui sera mené à la Banque de France, pourra faire aussi l'objet d'une coopération avec l’Institut statistique du Chili et l’OCDE. Pour pouvoir postuler, il faut être étudiant en France (sans pour autant avoir la nationalité française toutefois). La base de données, sous excel, sera accompagnée d'un document word ou pdf expliquant le travail effectué pour construire la base de données (sélection des sites, téléchargement en explicitant les étapes du programme, nettoyage des données erronées, mise en forme, problèmes éventuels rencontrés...), ainsi que du programme utilisé pour effectuer le web-scraping.

Possible reward :

• Un entretien pour un stage rémunéré de 2/3 mois minimum, pouvant aller jusqu’à 6 mois, à la Banque de France + statut de co-auteur pour les éventuels travaux publiés

Uncertainty measure in international trade

more_vert

Uncertainty measure in international trade

close

General Description: Part of a project studying how to measure uncertainty in international trade. Your contribution: Write a R program that - 1/ Collects and clean international trade data. - 2/ Use that data to compute measures of uncertainty in international trade that can be updated every month. The measure of uncertainty is in the spirit of Bricongne & Gigout (2020) https://drive.google.com/file/d/15cyQR-VNpg4TCm6nz3WHXxT2LGyngTlY/view?usp=sharing Step 1/ Write a sub-program that downloads monthly trade from comext (the European Commission External trade database) : https://ec.europa.eu/eurostat/estat-navtree-portlet-prod/BulkDownloadListing?sort=1&dir=comext%2FCOMEXT_DATA%2FPRODUCTS Your program should download the data, unzip it and clean it. Your program should offer the ability to download past data from 2017 onward and the ability to download the latest month only. The cleaning steps are outlined at this address http://www.isabellemejean.com/BasicCleaning.do (you may ignore anything related to firm level variables since this level of disaggregation is not available in comext). Finally convert the 8-digit level product codes (nc8) to 6-digit codes (hs6) and aggregate the data at this level. Step 2/ Write a sub-program that takes the output from step 1, applies various transformations to the data then computes various measures of dispersions meant to capture the uncertainty of foreign demand in international trade. Once again, your program should allow the option to execute those operations on the historical data or on the latest month of data only. - 2a/ compute the year-on-year growth rate of the level of trade in euro for each month. Taking into account the so called “zero trade flows” is a key challenge in international trade. Therefore including an option to compute different types of growth rate will be a plus (eg. Delta log, midpoint growth rate, delta log(1+x), etc). Implementing one or two in the programs will suffice as long as you include provisions to easily add others in the future. - 2b/ write a sub-program that takes those growth rates and applies various residualization procedures. This program will need to include at least the following one: o v_ijpt = gamma_ipt + gamma_jpt + upsilon_ijpt o Where the left-hand side variable is the growth rate of trade of product “p” between exporter “I” and importer “j” for month “t”. The “gammas” are respectively exporter-product-month and importer-product-month fixed effects. o The program will need to collect the residual upsilon. You may use any estimation command available on CRAN (fixest or lfe for instance). You will use a linear estimator but provisions to add other estimators in the future (eg. Poisson) need to be included. - 2c/ The program will then compute various moments of the distribution of upsilon. The minimum requirement is the standard deviation of upsilon_ijpt for each importer(i)-hs4(k)-month(t) . Adding options to compute other moments of the distribution (skewness, interquartile range, etc.) would be valuable. At this point, you will have written a program that compute a measure of the uncertainty of the demand originating from each import market (j-k pairs). Step 3/ Various events affected international trade since 2017. Using the data that you generated in step 2, produce a few (no more than 4) stylized facts (graphics or tables) that you think would be interesting. Did some of those events generate trade uncertainty? If any, what sector or country were most affected? The reward will be an interview for an internship in Banque de France. Candidates must be students in France (without being necessarily French though).

Possible reward :

• Une interview pour un stage rémunéré à la Banque de France (durée de plusieurs mois, à fixer), pour les personnes étudiant en France.

help

If you are having trouble logging in, make sure you have confirmed your account by email.

Send another account verification email