Si un serveur TCP et un client sont connectés, je voudrais déterminer quand le client n'est plus connecté. J'ai pensé que je peux simplement faire ceci en essayant d'envoyer un message au client et une fois que send() revient avec un -1, je peux alors démonter le socket. Cette implémentation fonctionne sous Windows mais à la minute où j'essaye de le faire sous Linux avec des sockets BSD, l'appel à send() sur l'application côté serveur fait planter mon application serveur si le client n'est plus connecté. Il ne retourne même pas -1 ... juste termine le programme.L'envoi TCP ne renvoie pas cause de plantage processus
Veuillez expliquer pourquoi cela se produit. Merci d'avance!