Vous êtes ici : Accueil

test liste publi


  • Clavert, F. (2015). Comprendre les Humanités numériques. Dans . Présenté à Journée d'études HumaN'Doc. Consulté de https://halshs.archives-ouvertes.fr/halshs-01230260
    Résumé Comment mener une recherche historique dans un monde de données?

  • Baider, F. (2014). ANALYSING JOURNALISTIC DISCOURSE AND FINDING OPINIONS SEMI-AUTOMATICALLY? Journal Of Data Mining And Digital Humanities, 2014. Consulté de https://hal.archives-ouvertes.fr/hal-00919370/document
    Résumé This research study tested three different NLP technologies to analyze representative journalistic discourse used in the 2007 and 2012 presidential campaigns in France. The analysis focused on the discourse in relation to the candidate's gender and/ or political party. Our findings suggest that using specific software to examine a journalistic corpus can reveal linguistic patterns and choices made on the basis of political affiliation and/or gender stereotypes. These conclusions are drawn from quantitative and qualitative analysis carried out with three different software programs: SEMY, which semi-automatically provides semantic profiles; ANTCONC, which provides useful Keywords in Context (KWIC) or abstracts of texts, as well as collocations; TERMOSTAT, which reveals discourse specificities, frequencies and the most common morpho-syntactic patterns. Analysis of our data point to convergent asymmetries between female and male candidates in journalistic discourse (however conditionally) for the 2007 and the 2012 French presidential campaigns. We conclude that social gender (i.e., stereotypical expectations of who will be a typical member of a given category) and / or political favoritism may affect the representation of leadership in discourse, which, in turn, may influence the readership, hence the electorate. Thus the study recommends the use of corpus linguistic tools for the semi-automatic investigation of political texts.
  • Lebart, L., Morineau, A., & Fénelon, J. P. (1980). Traitement Des Données Statistiques. Paris: Dunod.
    Résumé Ensembles finis, distributions générales, régression, modèle linéaire, méthodes non–paramétriques, programmes correspondants en Fortran et APL.

  • R Core Team,. (2014). R: A Language and Environment for Statistical Computing. Vienna, Austria: R Foundation for Statistical Computing. Consulté de http://www.R-project.org/

  • Poudat, C., Vanni, L., & Grabar, N. (2016). How to explore conflicts in French Wikipedia talk pages? Dans (Vol. 2, p. 645-656). Présenté à Statistics Analysis of Textual Data. Consulté de https://hal.archives-ouvertes.fr/hal-01359416/document
    Résumé With the exponential development of the Internet, new discourse genres and situations have expanded. These new web genres, which are still little described, are complex objects challenging our methodologies and our analysis tools: the encyclopedic project Wikipedia is one of these new objects which are part of Computer-mediated communication (CMC). The present article concentrates on the exploration of conflicts in Wikipedia talk pages, using Hyperbase Web. Wikipedia data and CMC corpora have been little studied by French linguistics so far, and are still challenging text statistics, notably because of the complexity of such data (multiple annotations, consistent metadata, references between postings and user networks). Based on the Wikiconflits corpus, which is already available and freely usable by researchers, we will propose some methodological avenues to explore Wikipedia data and CMC corpora.
    Pièce jointe Full Text PDF 892.2 ko (source)

  • Dord-Crouslé, S. (2014). Le creuset flaubertien : l'édition des dossiers documentaires de Bouvard et Pécuchet, prologue à l'avènement de "seconds volumes possibles". Revue Flaubert, (13 - "Les dossiers documentaires de Bouvard et Pécuchet": l'édition numérique du creuset flaubertien), 1-12. Consulté de https://halshs.archives-ouvertes.fr/halshs-00957031/document
    Résumé [http://flaubert.univ-rouen.fr/revue/article.php?id=170 ]<br> Après avoir rappelé le contenu du projet sélectionné par l'Agence nationale de la recherche en 2007 et les différentes étapes de sa mise en œuvre, on expose les résultats obtenus les plus importants comme l'édition numérique intégrale des dossiers documentaires de <em>Bouvard et Pécuchet</em> et l'outil de production de "seconds volumes" possibles. Le colloque qui s'est tenu à Lyon en mars 2012 a permis de présenter ces outils et d'offrir aux chercheurs de les expérimenter pour mettre au jour des facettes nouvelles du véritable creuset flaubertien que constitue ce corpus hors normes.

  • Bouchet-Valat, M., & Bastin, G. (2013). RcmdrPlugin.temis, a Graphical Integrated Text Mining Solution in R. The R Journal, 5(1), 188-196. Consulté de http://hal.univ-grenoble-alpes.fr/hal-00939504/document
    Résumé We present the package RcmdrPlugin.temis, a graphical user interface for user-friendlytext mining in R. Built as a plug-in to the R Commander provided by the Rcmdr package, it brings together several existing packages and provides new features streamlining the process of importing,managing and analyzing a corpus, in addition to saving results and plots to a report file. Beyond common file formats, automated import of corpora from the Dow Jones Factiva content provider and Twitter is supported. Featured analyses include vocabulary and dissimilarity tables, terms frequencies, terms specific of levels of a variable, term co-occurrences, time series, correspondence analysis and hierarchical clustering.
    Pièce jointe Full Text PDF 290.1 ko (source)

  • Hue-Gay, E., Mellerin, L., & Morlock, E. (2017). TEI-encoding of text reuses in the BIBLINDEX Project. Journal Of Data Mining And Digital Humanities, Special Issue on Computer-Aided Processing of Intertextuality in Ancient Languages. Consulté de https://halshs.archives-ouvertes.fr/halshs-01543050/document
    Résumé This paper discusses markup strategies for the identification and description of text reuses in a corpus of patristic texts related to the BIBLINDEX Project, an online index of biblical references in Early Christian Literature. In addition to the development of a database that can be queried by canonical biblical or patristic references, a sample corpus of patristic texts has been encoded following the guidelines of the TEI (Text Encoding Initiative), in order to provide direct access to quoted and quoting text passages to the users of the https://www.biblindex.info platform.
    Pièce jointe Full Text PDF 765 ko (source)

  • Braillon-Chantraine, C., Davignon, A., Lahoche, N., Idmhand, F., & Martini, C. (2014). Le programme de recherche sur les archives du Fonds Alcides Giraldi : un exemple de production de données en humanités numériques. Revue Des Nouvelles Technologies De L'information, p.169-184. Consulté de https://halshs.archives-ouvertes.fr/halshs-01132614/document
    Résumé Parmi les patrimoines écrits que les institutions publiques ou privées sont susceptibles de recevoir, les archives des écrivains contemporains représentent, par leur originalité, leur diversité et leur amplitude, un défi pour celles qui acceptent d’assumer leur conservation, leur préservation et de faciliter leur consultation. Du point de vue de la recherche, au sein des humanités numériques en particulier, ces archives constituent une importante réserve de données à condition, bien sûr, que celles-ci soient exploitables. Cet article propose d’expliquer comment, depuis 2003, nous nous sommes engagés dans la constitution d'une telle réserve à travers le projet de recherches et de valorisation du fonds « Alcides Giraldi ». Ce fonds, actuellement hébergé à Lille, comporte de nombreux inédits susceptibles de documenter la recherche inter-nationale sur la circulation des idées entre l’Europe et les Amériques durant les principaux conflits du XXème siècle.

  • PLUME | Promouvoir les Logiciels Utiles, Maitrisés et Economiques. (2007). PLUME | Promouvoir les Logiciels Utiles, Maitrisés et Economiques. text. Consulté avril 5, 2013, de https://www.projet-plume.org/
    Résumé Fiches de logiciels (logiciels libres en majorité) utilisés ou développés dans la communauté de l'Enseignement Supérieur et la Recherche (universités, CNRS, INRA...) et documents associés


  • Stein, A., & Prévost, S. (2013). Syntactic annotation of medieval texts: the Syntactic Reference Corpus of Medieval French (SRCMF). Narr Verlag. Consulté de https://halshs.archives-ouvertes.fr/halshs-01122079/document
    Résumé This article presents the Syntactic Reference Corpus of Medieval French (SRCMF).

  • Barreca, G., & Christodoulides, G. (2014). Un concordancier multi-niveaux et multimédia pour des corpus oraux. Dans . Présenté à 21e Conférence sur le Traitement automatique des Langues Naturelles (TALN 2014). Consulté de https://halshs.archives-ouvertes.fr/halshs-01078133/document
    Résumé Les concordanciers jouent depuis longtemps un rôle important dans l’analyse des corpus linguistiques, tout comme dans les domaines de la philologie, de la littérature, de la traduction et de l’enseignement des langues. Toutefois, il existe peu de concordanciers qui soient capables d’associer des annotations à plusieurs niveaux et synchronisées avec le signal sonore. L’essor des grands corpus de français parlé introduit une augmentation des exigences au niveau de la performance. Dans ce travail à caractère préliminaire, nous avons développé un prototype de concordancier multi-niveaux et multimédia, que nous avons testé sur le corpus de français parlé du projet Phonologie du Français Contemporain (PFC, 1,5 million de tokens de transcription alignée au niveau de l’énoncé). L’outil permet non seulement d’enrichir les résultats des concordances grâce aux données relevant de plusieurs couches d’annotation du corpus (annotation morphosyntaxique, lemme, codage de la liaison, codage du schwa etc.), mais aussi d’élargir les modalités d’accès au corpus.


  • Quantin, M., Hervy, B., Laroche, F., & Bernard, A. (2016). Supervised Process of Un-structured Data Analysis for Knowledge Chaining. Dans (Vol. 50, p. 436–441). Présenté à CIRP design conference, Elsevier. doi:10.1016/j.procir.2016.04.123
    Résumé Along the product life-cycle, industrial processes generate massive digital assets containing precious information. Besides structured databases, written reports hold unstructured information hardly exploitable due to the lack of vocabulary and syntax standardization. In this paper we present a methodology and natural language processing approach to exploit these documents. Our method consists in providing connections based on supervised retrieval of domain-specific expressions. No prior document analysis are required to drive the algorithm. It underlines a scale of specificity in pattern visualization. This allows relevant and specific information extraction for feedback (e.g. design stage, after-sales service).

  • Dacos, M., & Mounier, P. (2015). Humanités numériques (report) (p. 9782354761097). Institut français. Consulté de https://hal.archives-ouvertes.fr/hal-01228945/document
    Résumé Si, voici quelques années, il pouvait paraître étrange d'associer le numérique aux humanités, le monde scientifique voit aujourd'hui collaborer informaticiens et sociologues, ingénieurs et spécialistes de littérature. Ces alliances inédites renouvellent profondément les formes, les rythmes et la circulation des sciences humaines. Comprendre une révolution scientifique Faire le point sur cette mutation en cours, mesurer la part que peut y prendre la recherche française : tel est le double enjeu de l'étude sur les Humanités numériques aujourd'hui publiée par l'Institut français. Réalisée par Marin Dacos et Pierre Mounier, animateurs du Centre pour l'édition électronique ouverte (acteur majeur en France dans ce domaine à travers le portail Open Edition, palette d'instruments bien connue des chercheurs), Humanités numériques – État des lieux et positionnement de la recherche française dans le contexte international trace les contours d'un champ en pleine expansion. Qu'il s'agisse de publier en ligne de vastes fonds d'archives, d'analyser en direct l'impact des réseaux sociaux sur les mobilisations militantes ou de mettre au travail une communauté d'internautes sur des pans entiers du patrimoine culturel, le tournant numérique concerne aujourd'hui tous les secteurs de la recherche sur la société, les œuvres et la culture : l'étude ici publiée éclaire de manière précise et accessible cette transformation globale.
    Pièce jointe Full Text PDF 3.8 Mo (source)
  • Bray, T., Paoli, J., Sperberg-McQueen, C. M., Maler, E., & Yergeau, F. (2008). Extensible markup language (XML) 1.0 (Fifth Edition). W3C.
  • Benzécri, J. - P., & al.,. (1973). L'analyse des correspondances (Vol. II). Paris: Dunod.
  • Barclay, K. A., & Savage, W. J. (2007). Groovy programming: an introduction for Java developers. Morgan Kaufmann Publishers.
  • Lafon, P. (1980). Sur la variabilité de la fréquence des formes dans un corpus. Mots, (1), 127-165.
  • Venkat, S. (2008). Programming Groovy: dynamic productivity for the Java developer (Pragmatic Bookshelf.). Raleigh: Daniel H. Steinberg ed.


  • Schnedecker, C., Glikman, J., & Landragin, F. (2017). Les chaînes de référence : annotation, application et questions théoriques. Langue Française, (195), 5-16. doi:10.3917/lf.195.0005
    Résumé Dans cet article de présentation du numéro, nous commençons par définir la notion de chaîne de référence, puis nous proposons une revue des méthodes et des approches de l’étude des chaînes de référence. Nous montrons que les approches linguistiques prédominantes ne suffisent pas à prendre en considération les spécificités discursives et les liens étroits entre chaînes et genres textuels. Nous montrons également que les approches de la linguistique de corpus et du traitement automatique des langues suivent des voies opérationnelles qui s’éloignent de la complexité du phénomène linguistique initial et se focalisent sur d’autres langues que le français. Nous mettons alors en avant la démarche qui a réuni les auteurs des articles de ce numéro et qui est en partie matérialisée dans le projet ANR Democrat., This volume introductory article starts with a definition of the notion of reference chain, and continues with an overview of the methods and approaches for the study of reference chains. We show that the predominant linguistic approaches are not sufficient to take into account the discursive specificities of reference chains, as well as the links between them and text genres. We also show that corpus linguistics and mostly natural language processing approaches are more and more operational and sometimes forget the complexity of the initial linguistic phenomena. Moreover, they mainly focus on languages other than French. Then, we highlight the demarche that brought together the authors of these volume articles, which is partly implemented in the Democrat ANR project.
    Mots-clés : applications, chaîne de référence, corpus, méthodologies, référence.

  • Landragin, F., Poibeau, T., & Victorri, B. (2012). ANALEC: a New Tool for the Dynamic Annotation of Textual Data. Dans (p. 357-362). Présenté à International Conference on Language Resources and Evaluation (LREC 2012). Consulté de https://halshs.archives-ouvertes.fr/halshs-00698971/document
    Résumé We introduce ANALEC, a tool which aim is to bring together corpus annotation, visualization and query management. Our main idea is to provide a unified and dynamic way of annotating textual data. ANALEC allows researchers to dynamically build their own annotation scheme and use the possibilities of scheme revision, data querying and graphical visualization during the annotation process. Each query result can be visualized using a graphical representation that puts forward a set of annotations that can be directly corrected or completed. Text annotation is then considered as a cyclic process. We show that statistics like frequencies and correlations make it possible to verify annotated data on the fly during the annotation. In this paper we introduce the annotation functionalities of ANALEC, some of the annotated data visualization functionalities, and three statistical modules: frequency, correlation and geometrical representations. Some examples dealing with reference and coreference annotation illustrate the main contributions of ANALEC.

  • Urieli, A. (2013, décembre). Robust French syntax analysis: reconciling statistical methods and linguistic knowledge in the Talismane toolkit (Theses). Université Toulouse le Mirail - Toulouse II. Consulté de https://tel.archives-ouvertes.fr/tel-00979681
    Mots-clés : analyse syntaxique, apprentissage automatique supervisé, étiquetage morphosyntaxique, French syntax analysis, parsing, pos-tagging, supervised machine learning, syntaxe française, targeted features.

  • Bonnet, B. (2005). Gestion intégrée des zones humides méditerranéennes : concepts, enseignements et démarches pour intégrer la conservation aux dynamiques des territoires (Vol. 1-1). Arles (France): Tour du Valat.
    Mots-clés : Écologie des zones humides -- Méditerranée (région), Conservation des ressources naturelles -- Méditerranée (région) -- Coopération internationale, Conservation des zones humides -- Méditerranée (région), Zones humides -- Aspect économique -- Méditerranée (région).

  • Skinner, J., & Zalewski, S. (1995). Fonctions et valeurs des zones humides méditerranéennes. (C. Sourd, Trad.) (Vol. 1-1). Arles (France): Tour du Valat.
    Mots-clés : Écologie des zones humides -- Méditerranée (région), Conservation des ressources naturelles -- Méditerranée (région) -- Coopération internationale, Conservation des zones humides -- Méditerranée (région), Zones humides -- Aspect économique -- Méditerranée (région).

  • Acreman, M. (2000). L'hydrologie des zones humides (Vol. 1-1). Arles: Tour du Valat.
    Mots-clés : Écologie des zones humides, Écologie des zones humides -- Méditerranée (région), Conservation des ressources naturelles -- Méditerranée (région) -- Coopération internationale, Conservation des zones humides -- Méditerranée (région), Cycle hydrologique, Gestion des ressources en eau, Zones humides -- Aspect économique -- Méditerranée (région).

  • Fustec, É. (1938?-2009), Lefeuvre, J. - C., & Barnaud, G. (2000). Fonctions et valeurs des zones humides (Vol. 1-1). Paris: Dunod.
    Résumé Autre tirage : 2005. - 9782100044337
    Mots-clés : Écologie des zones humides, Conservation des zones humides, Zones humides, Zones humides artificielles -- Aspect économique.

  • Colditz, G. (1994). Auen, Moore, Feuchtwiesen : Gefährdung und Schutz von Feuchtgebieten (Vol. 1-1). Basel: Birkhäuser.
    Mots-clés : Animaux des zones humides, Écologie des zones humides, Conservation des zones humides, Nature conservation, Plantes des zones humides, Wetland animals, Wetland plants, Wetlands.

  • TEI Consortium,. (2017). TEI P5: Guidelines for Electronic Text Encoding and Interchange. TEI Consortium. Consulté de http://www.tei-c.org/Guidelines/P5

  • Beretta, F. (2015). Publishing and sharing historical data on the semantic web : the SyMoGIH project – symogih.org. Dans . Présenté à Workshop: Semantic Web Applications in the Humanities. Consulté de https://halshs.archives-ouvertes.fr/halshs-01136533
    Résumé La communication présente l'ontologie retenue pour publier les données du projet symogih.org —plate-forme collaborative de stockage de l'information historique au service de la recherche— en utilisant les technologies du web sémantique. Après avoir présenté les atouts et les limites de quelques ontologies comparables, il propose trois exemples de réécriture des données selon l'ontologie symogih.org et montre son utilité en vue de l'interopérabilité des données sur le web.

  • Jones, D. B., & Somers, H. (2013). New Methods In Language Processing. Routledge.
    Résumé Studies in Computational Linguistics presents authoritative texts from an international team of leading computational linguists. The books range from the senior undergraduate textbook to the research level monograph and provide a showcase for a broad range of recent developments in the field. The series should be interesting reading for researchers and students alike involved at this interface of linguistics and computing.
    Mots-clés : Computers / Computer Science, Language Arts & Disciplines / Linguistics / General.

  • Schmid, H. (1994). Probabilistic Part-of-Speech Tagging Using Decision Trees. Dans . Présenté à International Conference on New Methods in Language Processing, Manchester, UK: Routledge.
    Résumé In this paper, a new probabilistic tagging method is presented which avoids problems that Markov Model based taggers face, when they have to estimate transition probabilities from sparse data. In this tagging method, transition probabilities are estimated using a decision tree. Based on this method, a part-of-speech tagger (called TreeTagger) has been implemented which achieves 96.36 % accuracy on Penn-Treebank data which is better than that of a trigram tagger (96.06 %) on the same data.

  • Widlöcher, A., & Mathet, Y. (2009). La plate-forme Glozz: environnement d'annotation et d'exploration de corpus. Dans Actes De La 16E Conférence Traitement Automatique Des Langues Naturelles (Taln'09), Session Posters (p. 10). Senlis, France, France. Consulté de https://hal.archives-ouvertes.fr/hal-01011969
    Résumé La nécessité d'une interaction systématique entre modèles, traitements et corpus impose la disponibilité d'annotations de référence auxquelles modèles et traitements pourront être confrontés. Or l'établissement de telles annotations requiert un cadre formel permettant la représentation d'objets linguistiques variés, et des applications permettant à l'annotateur de localiser sur corpus et de caractériser les occurrences des phénomènes observés. Si différents outils d'annotation ont vu le jour, ils demeurent souvent fortement liés à un modèle théorique et à des objets linguistiques particuliers, et ne permettent que marginalement d'explorer certaines structures plus récemment appréhendées expérimentalement, notamment à granularité élevée et en matière d'analyse du discours. La plate-forme Glozz répond à ces différentes contraintes et propose un environnement d'exploration de corpus et d'annotation fortement configurable et non limité a priori au contexte discursif dans lequel elle a initialement vu le jour. ------ The need for a systematic confrontation between models and corpora make it necessary to have - and consequently, to produce - reference annotations to which linguistic models could be compared. Creating such annotations requires both a formal framework which copes with various linguistic objects, and specific manual annotation tools, in order to make it possible to locate, identify and feature linguistic phenomena in texts. Though several annotation tools do already exist, they are mostly dedicated to a given theory and to a given set of structures. The Glozz platform, described in this paper, tries to address all of these needs, and provides a highly versatile corpus exploration and annotation framework.

  • Heiden, S. (2010). TXM : Une plateforme logicielle open-source pour la textométrie – conception et développement. Dans I. C. Sergio Bolasco (éD.), 10Th International Conference On The Statistical Analysis Of Textual Data - Jadt 2010 (Vol. 2, p. 1021-1032). Edizioni Universitarie di Lettere Economia Diritto. Consulté de http://halshs.archives-ouvertes.fr/halshs-00549779/en/
    Résumé The research project Federation and Research Developments in Textometry around the creation of an Open- Source Platform distributes its XML-TEI encoded corpus textometric analysis platform online. The design of this platform is based on a synthesis of features of existing textometric software. It relies on identifying the open-source software technology available and effectively processing digital resources encoded in XML and Unicode, and on a state of the art of open-source full-text search engines on structured and annotated corpora. The architecture is based on a Java toolkit component articulating a search engine (IMS CWB), a statistical computing environment (R) and a module for importing XML-TEI encoded corpora. The platform is distributed as an open-source toolkit for developers and in the form of two applications for end users of textometry: a local application to install on a workstation (Windows or Linux) and an online web application. Still early in its development, the platform implements at present only a few essential features, but its distribution in open-source already allows an open community development. This should facilitate its development and integration of new models and methods.
    Mots-clés : textometry ; open-source ; full text search engine ; statistical analysis ; xml-tei ; natural language processing ; eclipse rcp ; grails framework.
    Note Note
    ICAR3
  • Sinclair, J., & CEE,. (1996). Preliminary Recommendations on Corpus Typology. EAGLES (Expert Advisory Group on Language Engineering Standards).
  • Simonin–Grumbach, J. (1975). Pour Une Typologie Des Discours. Dans Langue, Discours, Société (Pour Émile Benveniste) (p. 85–121). Paris: Seuil.
  • Silberztein, M. (1993). Dictionnaires Électroniques et Analyse Automatique de Textes. Le Système INTEX. Paris: Masson.
  • Shannon, C. E. (1949). The Mathematical Theory of Communications. (C. E. Shannon & W. Weaver, Éd.). Urbana: The University of Illinois Press.
  • Sékhraoui, M. (1981). La Saisie Des Textes et Le Traitement Des Mots : Problèmes Posés, Essai de Solution. Paris: Ecole des hautes études en sciences sociales.
  • Salem, A. (1993). Méthodes de la Statistique Textuelle (Thèse d'Etat). Université Sorbonne Nouvelle (Paris 3).
  • Salem, A. (1987). Pratique Des Segments Répétés, Essai de Satistique Textuelle. Paris: Klincksieck.
  • Salem, A. (1984). La Typologie Des Segments Répétés Dans un Corpus, Fondée sur L'analyse D'un Tableau Croisant Mots et Textes. Les Cahiers De L'analyse Des Données, IX(4), 489�500.
  • Reinert, M. (1990). Alceste, Une Méthodologie D'analyse Des Données Textuelles et Une Application : Aurélia de Gérard de Nerval. Bull. De Méthod. Sociol., (26), 24�54.
  • Press, W. H., Teukolsky, S. A., Vetterling, W. T., & Flannery, B. P. (1992). Numerical Recipes in C. Cambridge: Cambridge University Press.
    Résumé La référence internationale en matière de calcul numérique : exposé des l'algorithmes et de leurs conditions d'utilisation, et programmes associés. Plus de 300 procédures décrites. Sections principales : – Solution of linear Algebraic equations ; – Interpolation and Extrapolation ; – Integration of functions ; – Evaluation of functions ; – Special Functions ; – Random Numbers ; – Sorting ; – Root Finding and Nonlinear Sets of Equations ; – Minimazation or Maximazation of Functions ; – Eigensystems ; – Fast Fourier Transform ; – Fourier and Spectral Applications ; – Statistical Description of Data ; – Modeling of Data ; – Integration of Ordinary Differential Equations ; – Two Point Boundary Value Problems ; – Integral Equations and Inverse Theory ; – Partial Differential Equations ; – Less–Numerical Algorithms
  • Pêcheux, M. (1969). Analyse Automatique Du Discours. Paris: Dunod.
  • Muller, C. (1967). Etude de Statistique Lexicale. Le Vocabulaire Du Théâtre de Pierre Corneille. Paris: Larousse.
  • Muller, C. (1964). Essai de Statistique Lexicale : L'illusion Comique de P. Corneille. Paris: Klincksieck.
  • Menard, N. (1983). Mesure de la Richesse Lexicale, Théorie et Vérifications Expérimentales. Paris: Slatkine�Champion.
  • McEnery, T., & Wilson, A. (1996). Corpus Linguistics. Edinburgh: Edinburgh University Press.
  • Li, W. (1996). Http://Linkage.Rockefeller.Edu/Wli/Zipf.
  • Lebart, L., & Salem, A. (1988). Analyse Statistique Des Données Textuelles. Paris: Dunod.

0 | 50 | 100 | 150 | 200 | 250 | 300 | 350 | 400 | ... | 550

--- Exporter la sélection au format