Catala est un nouveau langage spécifique à un domaine qui permet de créer des algorithmes à partir de documents juridiques, en garantissant une grande fidélité entre le code et la loi.
Le langage est conçu pour refléter la structure logique de la loi, ce qui le rend accessible pour l'examen et la certification par les professionnels du droit ; il dispose même d'un compilateur qui génère des PDF lisibles par les juristes.
Nommé d'après Pierre Catala, un pionnier de la legaltech française, le projet Catala est une initiative de recherche menée par l'Inria, l'Institut national de recherche en informatique français. Cependant, le compilateur reste instable et limité en termes de fonctionnalités.
La conversation porte sur l'utilisation de Catala, un langage de programmation, dans la spécification de lois et de documents juridiques, en mettant l'accent sur ses avantages, ses inconvénients et les défis potentiels de la traduction de l'anglais dans un système de logique formelle.
L'utilisation du code en tant que régulateur, la complexité du code juridique, l'utilisation de symboles de codage dans les accords juridiques et le concept d'encodage de l'intention dans les lois à l'aide de langages de programmation font l'objet d'un débat.
Les participants ont discuté de l'idée de rédiger des textes juridiques clairs, du rôle d'un langage spécifique à un domaine pour les contrats juridiques, de la comparaison entre le développement de logiciels et le système juridique, et des préoccupations concernant le choix des noms pour de tels langages de programmation.
Petals est une plateforme permettant aux utilisateurs d'exploiter de grands modèles linguistiques - tels que Llama 2, Falcon et BLOOM - sur leurs appareils à l'aide d'un GPU grand public ou de Google Colab.
La plateforme permet à ses utilisateurs de rejoindre un réseau pour servir différentes parties du modèle et d'adapter les modèles à diverses tâches, en fournissant à la fois une API et des options flexibles avec PyTorch et Hugging Face Transformers.
Le projet de Petals a été mis en avant dans l'atelier de recherche BigScience, ce qui témoigne de sa contribution significative au développement de modèles de langage.