Position: Mid-Senior level

Job type: Part-time

Loading ...

Job content

Prêts pour Swisscom

  • Conception et implémentation de notre plateforme construite autour de Ceph storage et Kubernetes
  • Développement de logiciels et d’API en libre-service permettant aux utilisateurs de gérer leurs ressources
  • Gestion de la fiabilité de notre plateforme
  • Implémentation de notre transformation vers le cloud avec AWS
  • Possibilité de job sharing

Ton profil professionnel

  • Excellente connaissance de Linux: systèmes de fichiers, gestion des volumes, gestion des processus, optimisation des performances et piles de réseaux
  • Bonne compréhension des réseaux et de la sécurité informatiques

L’équipeAu sein d’une équipe dynamique, tu implémentes des use cases à l’aide de technologies open source, développes des modèles d’architecture, améliores notre environnement DevOps et explores de nouvelles technologies. Tu collabores avec les équipes chargées des composants Big Data afin de développer des services de bout en bout. L’objectif est de satisfaire nos utilisateurs dépendants de la performance, de la stabilité et de la résilience. Tu rejoins une équipe d’ingénieurs passionnés et autonomes. Relever de nouveaux défis est pour toi une source de motivation, et tu es convaincu de notre vision consistant à faire sans cesse évoluer la plateforme.

Marianne

Tu collabores étroitement avec les équipes qui forment le Swisscom Data Lake en utilisant les dernières et les meilleures technologies dites "Big Data" et leurs écosystèmes associés – sur site et dans le cloud.

  • Conception et implémentation de notre plateforme construite autour de Ceph storage et Kubernetes
  • Développement de logiciels et d’API en libre-service permettant aux utilisateurs de gérer leurs ressources
  • Gestion de la fiabilité de notre plateforme
  • Implémentation de notre transformation vers le cloud avec AWS
  • Possibilité de job sharing

L’équipe Au sein d’une équipe dynamique, tu implémentes des use cases à l’aide de technologies open source, développes des modèles d’architecture, améliores notre environnement DevOps et explores de nouvelles technologies. Tu collabores avec les équipes chargées des composants Big Data afin de développer des services de bout en bout. L’objectif est de satisfaire nos utilisateurs dépendants de la performance, de la stabilité et de la résilience. Tu rejoins une équipe d’ingénieurs passionnés et autonomes. Relever de nouveaux défis est pour toi une source de motivation, et tu es convaincu de notre vision consistant à faire sans cesse évoluer la plateforme.

Le projet Notre plateforme Data Lake intègre des produits Swisscom et ouvre la voie à de nouveaux produits de pointe axés sur les données. Nous offrons aux ingénieurs et analystes internes de nouvelles perspectives et créons des opportunités pour nos clients. Nous concevons, implémentons et opérons notre plateforme informatique et de stockage construite autour de Ceph storage et Kubernetes, sur site et sur AWS. Nous construisons un système qui automatise la gestion de nos plateformes et API. Nous valorisons une infrastructure de grande qualité axée sur le développement de code, l’examen par des pairs, les pipelines CI/CD, l’automatisation et l’innovation, ce qui nous permet de toujours remettre en question le statu quo.

Votre profil

  • Excellente connaissance de Linux: systèmes de fichiers, gestion des volumes, gestion des processus, optimisation des performances et piles de réseaux
  • Bonne compréhension des réseaux et de la sécurité informatiques
  • Expérience de développement en Java, Go ou Python, et première expérience des outils d’infrastructure en tant que code tels qu’Ansible
  • Expérience avec Ceph ou un autre système de banque de données distribué, et expérience avec les plateformes cloud
  • Une expérience avec Kubernetes est un plus
  • Attitude positive, esprit d’équipe, personnalité fiable, responsable et pragmatique
  • Très bonne maîtrise de l’anglais, le français ou l’allemand est un plus
  • Indépendance, motivation et attitude positive
  • Goût pour les méthodologies DevOps et agiles

Ce qui nous définit, c’est toi. Tu collabores étroitement avec les équipes qui forment le Swisscom Data Lake en utilisant les dernières et les meilleures technologies dites "Big Data" et leurs écosystèmes associés – sur site et dans le cloud.

  • Conception et implémentation de notre plateforme construite autour de Ceph storage et Kubernetes
  • Développement de logiciels et d’API en libre-service permettant aux utilisateurs de gérer leurs ressources
  • Gestion de la fiabilité de notre plateforme
  • Implémentation de notre transformation vers le cloud avec AWS
  • Possibilité de job sharing

L’équipe Au sein d’une équipe dynamique, tu implémentes des use cases à l’aide de technologies open source, développes des modèles d’architecture, améliores notre environnement DevOps et explores de nouvelles technologies. Tu collabores avec les équipes chargées des composants Big Data afin de développer des services de bout en bout. L’objectif est de satisfaire nos utilisateurs dépendants de la performance, de la stabilité et de la résilience. Tu rejoins une équipe d’ingénieurs passionnés et autonomes. Relever de nouveaux défis est pour toi une source de motivation, et tu es convaincu de notre vision consistant à faire sans cesse évoluer la plateforme.

Le projet Notre plateforme Data Lake intègre des produits Swisscom et ouvre la voie à de nouveaux produits de pointe axés sur les données. Nous offrons aux ingénieurs et analystes internes de nouvelles perspectives et créons des opportunités pour nos clients. Nous concevons, implémentons et opérons notre plateforme informatique et de stockage construite autour de Ceph storage et Kubernetes, sur site et sur AWS. Nous construisons un système qui automatise la gestion de nos plateformes et API. Nous valorisons une infrastructure de grande qualité axée sur le développement de code, l’examen par des pairs, les pipelines CI/CD, l’automatisation et l’innovation, ce qui nous permet de toujours remettre en question le statu quo.

Votre profil

  • Excellente connaissance de Linux: systèmes de fichiers, gestion des volumes, gestion des processus, optimisation des performances et piles de réseaux
  • Bonne compréhension des réseaux et de la sécurité informatiques
  • Expérience de développement en Java, Go ou Python, et première expérience des outils d’infrastructure en tant que code tels qu’Ansible
  • Expérience avec Ceph ou un autre système de banque de données distribué, et expérience avec les plateformes cloud
  • Une expérience avec Kubernetes est un plus
  • Attitude positive, esprit d’équipe, personnalité fiable, responsable et pragmatique
  • Très bonne maîtrise de l’anglais, le français ou l’allemand est un plus
  • Indépendance, motivation et attitude positive
  • Goût pour les méthodologies DevOps et agiles

Ce qui nous définit, c’est toi.
Loading ...
Loading ...

Deadline: 13-05-2024

Click to apply for free candidate

Apply

Loading ...
Loading ...

SIMILAR JOBS

Loading ...
Loading ...